简单线性回归的结果比 multivariate/multiple reg 更好
better results from simple linear regression than multivariate/multiple reg
我有一个预测房价的现有模型,它使用简单的线性回归。作为输入,我有日期,输出是价格。
我想改进整体结果,所以我又添加了一项功能。新特征与估计的距离 属性.
问题是 multiple/multivariate 回归的表现比简单回归差一点。 (所有数据均已归一化)
您知道为什么会发生这种情况吗?我该如何处理?
可能的原因有几十种,这里只列举几个:
- 如果您的新功能与您尝试预测的内容几乎没有关联 - 您正在有效地向系统注入噪音,因此无法期望更好的性能
- 如果你的数据点很少,更多的特征可能会导致更难的问题
- 由于您使用的是线性模型,即使新特征是非常好的预测变量,但它与因变量的关系不是线性的 - 模型也会失败
- 线性回归本身是非常幼稚的模型,即使 ridge/lasso 回归也可能会完全改变结果(尤其是套索,因为它可以更好地处理不良特征)
我有一个预测房价的现有模型,它使用简单的线性回归。作为输入,我有日期,输出是价格。
我想改进整体结果,所以我又添加了一项功能。新特征与估计的距离 属性.
问题是 multiple/multivariate 回归的表现比简单回归差一点。 (所有数据均已归一化)
您知道为什么会发生这种情况吗?我该如何处理?
可能的原因有几十种,这里只列举几个:
- 如果您的新功能与您尝试预测的内容几乎没有关联 - 您正在有效地向系统注入噪音,因此无法期望更好的性能
- 如果你的数据点很少,更多的特征可能会导致更难的问题
- 由于您使用的是线性模型,即使新特征是非常好的预测变量,但它与因变量的关系不是线性的 - 模型也会失败
- 线性回归本身是非常幼稚的模型,即使 ridge/lasso 回归也可能会完全改变结果(尤其是套索,因为它可以更好地处理不良特征)