使用网格搜索在 GradientBoostingClassifier 中获得最佳提升迭代次数
Obtain optimal number of boosting iterations in GradientBoostingClassifier using grid search
使用 GradientBoostingClassifier
假设我将 n_estimators
设置为 2000
并使用 GridSearchCV
在 [0.01, 0.05, 0.10]
中搜索 learning_rate
- 我该如何知道产生最佳结果的提升迭代次数 - 模型是否总是会为 learning_rate
的每个值拟合 2000
树,或者它是否会为每个这些使用最佳提升迭代次数价值观?在网格搜索中也包含 n_estimators
并搜索 [1,2000]
.
中的所有值是没有意义的
目前还没有办法直接从GradientBoostingClassifier中获取最优估计量。如果您还在参数网格中将 n_estimators
传递给 GridSearchCV
,它只会尝试您提供的确切值,以及 return 其中之一。
我们希望通过自动搜索估算器的数量来改进这一点。
使用 GradientBoostingClassifier
假设我将 n_estimators
设置为 2000
并使用 GridSearchCV
在 [0.01, 0.05, 0.10]
中搜索 learning_rate
- 我该如何知道产生最佳结果的提升迭代次数 - 模型是否总是会为 learning_rate
的每个值拟合 2000
树,或者它是否会为每个这些使用最佳提升迭代次数价值观?在网格搜索中也包含 n_estimators
并搜索 [1,2000]
.
目前还没有办法直接从GradientBoostingClassifier中获取最优估计量。如果您还在参数网格中将 n_estimators
传递给 GridSearchCV
,它只会尝试您提供的确切值,以及 return 其中之一。
我们希望通过自动搜索估算器的数量来改进这一点。