如何使用 scikit-learn 执行多变量线性回归?

How to perform multivariable linear regression with scikit-learn?

请原谅我的术语,我不是机器学习专家。我可能在下面使用了错误的术语。

我正在尝试执行多变量线性回归。假设我正在尝试通过分析网站上的页面浏览量来确定用户性别。

对于我知道性别的每个用户,我有一个特征矩阵,其中每一行代表一个网站部分,第二个元素代表他们是否访问过它,例如:

male1 = [
    [1, 1],     # visited section 1
    [2, 0],     # didn't visit section 2
    [3, 1],     # visited section 3, etc
    [4, 0]
]

所以在 scikit 中,我正在构建 xsys。我代表男性为 1,女性为 0。

以上将表示为:

features = male1
gender = 1

现在,我显然不只是为单个用户训练模型,而是我有数万个用户的数据用于训练。

我原以为我应该按如下方式创建 xsys

xs = [
    [          # user1
       [1, 1],    
       [2, 0],     
       [3, 1],    
       [4, 0]
    ],
    [          # user2
       [1, 0],    
       [2, 1],     
       [3, 1],    
       [4, 0]
    ],
    ...
]

ys = [1, 0, ...]

scikit 不喜欢这样:

from sklearn import linear_model

clf = linear_model.LinearRegression()
clf.fit(xs, ys)

它抱怨:

ValueError: Found array with dim 3. Estimator expected <= 2.

我应该如何为 scikit-learn 中的线性回归算法提供特征矩阵?

您需要以不同的方式创建 xs。根据 docs:

fit(X, y, sample_weight=None)

Parameters:

    X : numpy array or sparse matrix of shape [n_samples, n_features]
        Training data
    y : numpy array of shape [n_samples, n_targets]
        Target values
    sample_weight : numpy array of shape [n_samples]
        Individual weights for each sample

因此 xs 应该是一个二维数组,行数与用户一样多,列数与网站部分一样多。不过,您将 xs 定义为 3D 数组。为了将维数减少一个,您可以通过列表推导去掉节号:

xs = [[visit for section, visit in user] for user in xs]

如果您这样做,您作为示例提供的数据将转换为:

xs = [[1, 0, 1, 0], # user1
      [0, 1, 1, 0], # user2
      ...
      ]

clf.fit(xs, ys) 应该按预期工作。

一种更有效的降维方法是对 NumPy 数组进行切片:

import numpy as np
xs = np.asarray(xs)[:,:,1]