graphviz 可以显示一次性解码的分类数据吗?
Can graphviz display one-hot decoded categorical data?
我试图让 Graphviz 显示我的 oneHotEncoded 分类数据,但我无法让它工作。
这是我的 X 数据和这些列:
Category, Size, Type, Rating, Genre, Number of versions
['ART_AND_DESIGN' '6000000+' 'Free' 'Everyone' 'Art & Design' '7']
['ART_AND_DESIGN' '6000000+' 'Free' 'Everyone' 'Art & Design' '2']
...
['FAMILY' '20000000+' 'Free' 'Everyone' 'Art & Design' '13']
我的代码示例:
X = self.df.drop(['Installs'], axis=1).values
y = self.df['Installs'].values
self.oheFeatures = OneHotEncoder(categorical_features='all')
EncodedX = self.oheFeatures.fit_transform(X).toarray()
self.oheY = OneHotEncoder()
EncodedY = self.oheY.fit_transform(y.reshape(-1,1)).toarray()
self.X_train, self.X_test, self.y_train, self.y_test = train_test_split(EncodedX, EncodedY, test_size=0.25, random_state=33)
clf = DecisionTreeClassifier(criterion='entropy', min_samples_leaf=100)
clf.fit(self.X_train, self.y_train)
tree.export_graphviz(clf, out_file=None,
feature_names=self.oheFeatures.get_feature_names(),
class_names=self.oheY.get_feature_names(),
filled=True,
rounded=True,
special_characters=True)
Dot_data = tree.export_graphviz(clf, out_file=None)
graph = graphviz.Source(dot_data)
graph.render("applications")
但是当我尝试可视化输出结果时,我得到了编码数据的决策树:
有没有办法让 graphviz 显示“解码”数据?
您似乎期望这里有一些(相对简单的)编程方法或解决方法,但事实并非如此,而且这个问题实际上比简单的 Graphviz 可视化要深入得多。
你要记住的是:
- 你的树不"know"任何关于任何解码数据的信息;就它而言,唯一的实际数据是单热编码的数据
- Graphviz 只是简单地显示树结构
鉴于以上所述,您可能会看到,尽管您的请求听起来确实有意义并且从服务于树解释的 "business" 角度理解为所需的功能(毕竟,最大的优势之一树模型的数量应该正是它们的可解释性),从 编程 的角度来看,这个问题非常重要(SO 实际上就是这样):它甚至没有任何事情要做特别是 Graphviz - 即使我们想以规则的形式打印树,问题也会出现,这与 scikit-learn 为树构建所做的设计选择有关。
我承认,当我第一次听说它时,当我得知 scikit-learn 中的决策树不能直接 处理分类变量时,我自己也很惊讶(参见讨论在 and a still open Github issue on the subject). And the reason I was surprised is that I knew that certainly this is not the only design choice available: I come from an R background, and I knew that in R it is perfectly possible to fit trees with categorical features without the necessity of one-hot encoding; here is an example:
但是,唉,这至少暂时不适用于 scikit-learn(我非常怀疑它会改变)...
@desertnaut 是正确的,没有一种快速简便的方法可以做到这一点,因为 sklearn 中的模型将二进制虚拟变量视为与任何其他 real-valued 特征完全相同。
但是,至少在您的简单情况下(所有功能都经过 one-hot 编码),这并不难实现。首先,您可以将 input_feature_names
提供给 get_feature_names
,这样功能名称比 X[34]
更有用。接下来,export_graphviz
的输出是 DOT 代码,即 human-readable,因此 human-editable。在像您这样的非常小的示例中,您可以完全手工完成;在更大的示例中,您可能希望使用正则表达式替换或类似的东西。
我把 a notebook 放在一起来证明这一点,一次是在非常简单的情况下,一次是在某种程度上 more-complicated 的情况下。我考虑了 export_graphviz
方法的 monkey-patching 部分,但最终只是事后修改 DOT 代码。当 sklearn 完成决定并实施保留特征名称的方法时(或至少完成充实所有转换器的 get_feature_names
方法),第二个示例应该适用于更复杂的转换器 pipelines/composites.
我试图让 Graphviz 显示我的 oneHotEncoded 分类数据,但我无法让它工作。
这是我的 X 数据和这些列:
Category, Size, Type, Rating, Genre, Number of versions
['ART_AND_DESIGN' '6000000+' 'Free' 'Everyone' 'Art & Design' '7']
['ART_AND_DESIGN' '6000000+' 'Free' 'Everyone' 'Art & Design' '2']
...
['FAMILY' '20000000+' 'Free' 'Everyone' 'Art & Design' '13']
我的代码示例:
X = self.df.drop(['Installs'], axis=1).values
y = self.df['Installs'].values
self.oheFeatures = OneHotEncoder(categorical_features='all')
EncodedX = self.oheFeatures.fit_transform(X).toarray()
self.oheY = OneHotEncoder()
EncodedY = self.oheY.fit_transform(y.reshape(-1,1)).toarray()
self.X_train, self.X_test, self.y_train, self.y_test = train_test_split(EncodedX, EncodedY, test_size=0.25, random_state=33)
clf = DecisionTreeClassifier(criterion='entropy', min_samples_leaf=100)
clf.fit(self.X_train, self.y_train)
tree.export_graphviz(clf, out_file=None,
feature_names=self.oheFeatures.get_feature_names(),
class_names=self.oheY.get_feature_names(),
filled=True,
rounded=True,
special_characters=True)
Dot_data = tree.export_graphviz(clf, out_file=None)
graph = graphviz.Source(dot_data)
graph.render("applications")
但是当我尝试可视化输出结果时,我得到了编码数据的决策树:
有没有办法让 graphviz 显示“解码”数据?
您似乎期望这里有一些(相对简单的)编程方法或解决方法,但事实并非如此,而且这个问题实际上比简单的 Graphviz 可视化要深入得多。
你要记住的是:
- 你的树不"know"任何关于任何解码数据的信息;就它而言,唯一的实际数据是单热编码的数据
- Graphviz 只是简单地显示树结构
鉴于以上所述,您可能会看到,尽管您的请求听起来确实有意义并且从服务于树解释的 "business" 角度理解为所需的功能(毕竟,最大的优势之一树模型的数量应该正是它们的可解释性),从 编程 的角度来看,这个问题非常重要(SO 实际上就是这样):它甚至没有任何事情要做特别是 Graphviz - 即使我们想以规则的形式打印树,问题也会出现,这与 scikit-learn 为树构建所做的设计选择有关。
我承认,当我第一次听说它时,当我得知 scikit-learn 中的决策树不能直接 处理分类变量时,我自己也很惊讶(参见讨论在
但是,唉,这至少暂时不适用于 scikit-learn(我非常怀疑它会改变)...
@desertnaut 是正确的,没有一种快速简便的方法可以做到这一点,因为 sklearn 中的模型将二进制虚拟变量视为与任何其他 real-valued 特征完全相同。
但是,至少在您的简单情况下(所有功能都经过 one-hot 编码),这并不难实现。首先,您可以将 input_feature_names
提供给 get_feature_names
,这样功能名称比 X[34]
更有用。接下来,export_graphviz
的输出是 DOT 代码,即 human-readable,因此 human-editable。在像您这样的非常小的示例中,您可以完全手工完成;在更大的示例中,您可能希望使用正则表达式替换或类似的东西。
我把 a notebook 放在一起来证明这一点,一次是在非常简单的情况下,一次是在某种程度上 more-complicated 的情况下。我考虑了 export_graphviz
方法的 monkey-patching 部分,但最终只是事后修改 DOT 代码。当 sklearn 完成决定并实施保留特征名称的方法时(或至少完成充实所有转换器的 get_feature_names
方法),第二个示例应该适用于更复杂的转换器 pipelines/composites.