使用网格搜索在 GradientBoostingClassifier 中获得最佳提升迭代次数

Obtain optimal number of boosting iterations in GradientBoostingClassifier using grid search

使用 GradientBoostingClassifier 假设我将 n_estimators 设置为 2000 并使用 GridSearchCV[0.01, 0.05, 0.10] 中搜索 learning_rate - 我该如何知道产生最佳结果的提升迭代次数 - 模型是否总是会为 learning_rate 的每个值拟合 2000 树,或者它是否会为每个这些使用最佳提升迭代次数价值观?在网格搜索中也包含 n_estimators 并搜索 [1,2000].

中的所有值是没有意义的

目前还没有办法直接从GradientBoostingClassifier中获取最优估计量。如果您还在参数网格中将 n_estimators 传递给 GridSearchCV,它只会尝试您提供的确切值,以及 return 其中之一。 我们希望通过自动搜索估算器的数量来改进这一点。