为什么单树随机森林比决策树分类器好得多?

Why is Random Forest with a single tree much better than a Decision Tree classifier?

我申请了 使用以下代码将决策树分类器和随机森林分类器添加到我的数据中:

def decision_tree(train_X, train_Y, test_X, test_Y):

    clf = tree.DecisionTreeClassifier()
    clf.fit(train_X, train_Y)

    return clf.score(test_X, test_Y)


def random_forest(train_X, train_Y, test_X, test_Y):
    clf = RandomForestClassifier(n_estimators=1)
    clf = clf.fit(X, Y)

    return clf.score(test_X, test_Y)

为什么随机森林分类器的结果好得多(运行 100 次,随机抽取 2/3 的数据用于训练,1/3 用于测试)?

100%|███████████████████████████████████████| 100/100 [00:01<00:00, 73.59it/s]
Algorithm: Decision Tree
  Min     : 0.3883495145631068
  Max     : 0.6476190476190476
  Mean    : 0.4861783113770316
  Median  : 0.48868030937802126
  Stdev   : 0.047158171852401135
  Variance: 0.0022238931724605985
100%|███████████████████████████████████████| 100/100 [00:01<00:00, 85.38it/s]
Algorithm: Random Forest
  Min     : 0.6846846846846847
  Max     : 0.8653846153846154
  Mean    : 0.7894823428836184
  Median  : 0.7906101571063208
  Stdev   : 0.03231671150915106
  Variance: 0.0010443698427656967

一个估计量的随机森林估计量不就是一棵决策树吗? 我做错了什么或误解了这个概念吗?

The random forest estimators with one estimator isn't just a decision tree?

好吧,这是个好问题,答案竟然是没有;随机森林算法不仅仅是一个简单的单独生长的决策树包。

除了从集成许多树中引入的随机性之外,随机森林 (RF) 算法还在以两种不同的方式构建 个体树 时结合了随机性,none它存在于简单的决策树 (DT) 算法中。

首先是在每个树节点寻找最佳分割时要考虑的特征数量:DT 考虑所有特征,而 RF 考虑它们的随机子集,其大小等于参数 max_features(参见 docs)。

第二个是,当 DT 考虑整个训练集时,单个 RF 树只考虑它的一个 bootstrapped 子样本;再次来自 docs

The sub-sample size is always the same as the original input sample size but the samples are drawn with replacement if bootstrap=True (default).


RF 算法本质上是两个独立思想的组合:装袋和随机选择特征(请参阅 Wikipedia entry 以获得很好的概述)。装袋本质上是我上面的第二点,但适用于整体;随机选择特征是我上面的第一点,它似乎是在 Breiman 的 RF 之前由 Tin Kam Ho 独立提出的(再次参见维基百科词条)。 Ho 已经建议仅随机特征选择可以提高性能。这与您在这里所做的不完全相同(您仍然使用装袋中的 bootstrap 采样想法),但您可以通过在 RandomForestClassifier() 参数中设置 bootstrap=False 轻松复制 Ho 的想法。事实是,鉴于这项研究,性能差异并不意外...

要完全复制RandomForestClassifier()中单个树的行为,您应该同时使用bootstrap=Falsemax_features=None参数,即

clf = RandomForestClassifier(n_estimators=1, max_features=None, bootstrap=False)

在这种情况下,既不会发生bootstrap采样,也不会发生随机特征选择,性能应该大致等于单个决策树。