numpy 和 sklearn PCA return 不同的协方差向量
numpy and sklearn PCA return different covariance vector
尝试彻底学习 PCA,但有趣的是,当我使用 numpy 和 sklearn 时,我得到了不同的协方差矩阵结果。
numpy 结果与此解释性文本匹配 here 但 sklearn 结果与两者不同。
为什么会这样?
d = pd.read_csv("example.txt", header=None, sep = " ")
print(d)
0 1
0 0.69 0.49
1 -1.31 -1.21
2 0.39 0.99
3 0.09 0.29
4 1.29 1.09
5 0.49 0.79
6 0.19 -0.31
7 -0.81 -0.81
8 -0.31 -0.31
9 -0.71 -1.01
Numpy 结果
print(np.cov(d, rowvar = 0))
[[ 0.61655556 0.61544444]
[ 0.61544444 0.71655556]]
sklearn 结果
from sklearn.decomposition import PCA
clf = PCA()
clf.fit(d.values)
print(clf.get_covariance())
[[ 0.5549 0.5539]
[ 0.5539 0.6449]]
因为 np.cov
,
Default normalization is by (N - 1), where N is the number of observations given (unbiased estimate). If bias is 1, then normalization is by N.
设置bias=1
,结果同PCA
:
In [9]: np.cov(df, rowvar=0, bias=1)
Out[9]:
array([[ 0.5549, 0.5539],
[ 0.5539, 0.6449]])
所以我遇到了同样的问题,我认为它 returns 不同的值,因为协方差是以不同的方式计算的。根据sklearn documentation,get_covariance()
方法,利用噪声方差得到协方差矩阵。
尝试彻底学习 PCA,但有趣的是,当我使用 numpy 和 sklearn 时,我得到了不同的协方差矩阵结果。
numpy 结果与此解释性文本匹配 here 但 sklearn 结果与两者不同。
为什么会这样?
d = pd.read_csv("example.txt", header=None, sep = " ")
print(d)
0 1
0 0.69 0.49
1 -1.31 -1.21
2 0.39 0.99
3 0.09 0.29
4 1.29 1.09
5 0.49 0.79
6 0.19 -0.31
7 -0.81 -0.81
8 -0.31 -0.31
9 -0.71 -1.01
Numpy 结果
print(np.cov(d, rowvar = 0))
[[ 0.61655556 0.61544444]
[ 0.61544444 0.71655556]]
sklearn 结果
from sklearn.decomposition import PCA
clf = PCA()
clf.fit(d.values)
print(clf.get_covariance())
[[ 0.5549 0.5539]
[ 0.5539 0.6449]]
因为 np.cov
,
Default normalization is by (N - 1), where N is the number of observations given (unbiased estimate). If bias is 1, then normalization is by N.
设置bias=1
,结果同PCA
:
In [9]: np.cov(df, rowvar=0, bias=1)
Out[9]:
array([[ 0.5549, 0.5539],
[ 0.5539, 0.6449]])
所以我遇到了同样的问题,我认为它 returns 不同的值,因为协方差是以不同的方式计算的。根据sklearn documentation,get_covariance()
方法,利用噪声方差得到协方差矩阵。