为什么训练误差会随着 KNN 中 K 的值而变化?
Why training error varies with value of K in KNN?
为什么KNN算法中训练误差会随着K值的增加而增加?
对于 k=1,训练误差为零,因为如果我们取一个点并确定第一个最近的邻居,它将是训练数据集中的同一点,因此误差为零。
同样的概念应该适用于 k=2、3.... 等等。
那么训练误差如何随着 K
的值增加而增加呢?
对于k=1,算法会选择最接近测试样本的训练样本,因为训练样本中有测试样本,所以算法会选择自己,误差为零,模型也过拟合。
而当 k = 2、k=3 或更大时,它将寻找可能属于不同组的许多邻居,因此错误率会增加。
为什么KNN算法中训练误差会随着K值的增加而增加?
对于 k=1,训练误差为零,因为如果我们取一个点并确定第一个最近的邻居,它将是训练数据集中的同一点,因此误差为零。 同样的概念应该适用于 k=2、3.... 等等。 那么训练误差如何随着 K
的值增加而增加呢?对于k=1,算法会选择最接近测试样本的训练样本,因为训练样本中有测试样本,所以算法会选择自己,误差为零,模型也过拟合。 而当 k = 2、k=3 或更大时,它将寻找可能属于不同组的许多邻居,因此错误率会增加。