在 OLS 中,为什么在计算线性回归中的误差时平方优先于取绝对值?
In OLS, why is squaring preferred over taking absolute while calculating errors in linear regression?
为什么我们在OLS估计中使用残差平方而不是绝对残差 .
我的想法是我们使用误差值的平方,这样拟合线以下的残差(然后是负数)仍然必须能够加到正误差上。否则,我们的误差可能为 0,因为一个巨大的正误差可能会被一个巨大的负误差抵消。
那么为什么我们要平方而不是取绝对值呢?是因为额外的惩罚更高的误差(而不是 2 是 1 误差的 2 倍,当我们平方它时它是 1 误差的 4 倍)。
我觉得大的负残差(即远低于线的点)和大的正残差(即高于线的点)一样糟糕。通过对残差值进行平方,我们以相同的方式处理正负差异。为什么我们要对所有的平方残差求和?因为我们找不到一条能同时最小化所有残差的直线。相反,我们最小化平均(平方)残值。
为什么我们在OLS估计中使用残差平方而不是绝对残差 .
我的想法是我们使用误差值的平方,这样拟合线以下的残差(然后是负数)仍然必须能够加到正误差上。否则,我们的误差可能为 0,因为一个巨大的正误差可能会被一个巨大的负误差抵消。
那么为什么我们要平方而不是取绝对值呢?是因为额外的惩罚更高的误差(而不是 2 是 1 误差的 2 倍,当我们平方它时它是 1 误差的 4 倍)。
我觉得大的负残差(即远低于线的点)和大的正残差(即高于线的点)一样糟糕。通过对残差值进行平方,我们以相同的方式处理正负差异。为什么我们要对所有的平方残差求和?因为我们找不到一条能同时最小化所有残差的直线。相反,我们最小化平均(平方)残值。