如何绘制具有多个变量的逻辑回归线sklearn
How to plot the logistic regression line sklearn with multiple variables
我的数据集有 10,000 行,每行有 248 个值,这些值决定该行是零还是一。我想弄清楚为什么会这样。我正在尝试从
绘制逻辑回归线
LR = LogisticRegression(random_state=0, solver='lbfgs', multi_class='ovr',fit_intercept=True).fit(X, Y)
所以我明白了为什么它们是这样分类的。但我不知道该怎么做,我不能使用散点图,因为 x 数据比标签数据更有价值。
我的问题是我将如何着手策划这个。
我建议使用
绘制逻辑回归
import seaborn as sns
sns.regplot(x='target', y='variable', data=data, logistic=True)
但这需要一个变量输入。由于您试图找到与大量输入的相关性,因此我会首先寻找特征重要性,运行 this
from sklearn.linear_model import LogisticRegression
m = LogisticRegression()
m.fit(X, y)
print(m.coef_)
接下来的步骤是应用 PCA 来消除一些特征或将它们压缩成更少的变量和 运行 相关矩阵。
P.S。零或一代表什么?
我的数据集有 10,000 行,每行有 248 个值,这些值决定该行是零还是一。我想弄清楚为什么会这样。我正在尝试从
绘制逻辑回归线LR = LogisticRegression(random_state=0, solver='lbfgs', multi_class='ovr',fit_intercept=True).fit(X, Y)
所以我明白了为什么它们是这样分类的。但我不知道该怎么做,我不能使用散点图,因为 x 数据比标签数据更有价值。
我的问题是我将如何着手策划这个。
我建议使用
绘制逻辑回归import seaborn as sns
sns.regplot(x='target', y='variable', data=data, logistic=True)
但这需要一个变量输入。由于您试图找到与大量输入的相关性,因此我会首先寻找特征重要性,运行 this
from sklearn.linear_model import LogisticRegression
m = LogisticRegression()
m.fit(X, y)
print(m.coef_)
接下来的步骤是应用 PCA 来消除一些特征或将它们压缩成更少的变量和 运行 相关矩阵。
P.S。零或一代表什么?