LR中解释变量多于观测值,SPSS如何排除变量

With more explanatory variables than observations in LR, how does SPSS exclude variables

我正在使用 SPSS 进行多项线性回归,并且每次都应用不同的过滤器以比较不同的组。对于许多过滤器,我仅使用 13 个观察值和 15 或 24 个解释变量来拟合回归。在那些情况下,SPSS 会给我一个有 12 个 beta 的模型,并会排除剩余的变量(我认为这主要是我理解的)。

谁能告诉我 SPSS 如何选择要排除的变量以及这些变量对相关变量的影响(即 beta 是什么)?我最初认为我应该将这些变量视为具有零贝塔值,但我不再确定了。

在此先感谢您的帮助!

请不要评论只告诉我对 13 个观察结果进行回归是愚蠢的。如果您有一些有用的见解需要您首先指出 13 个观测值的回归并不理想,我很高兴听到您的意见。

当模型可以完全拟合时,您不太可能获得如此多的变量和如此少的观察值的有用结果。查看系数标准误差。您最好使用偏最小二乘法 (PLS) 之类的技术,它可以容纳比个案更多的变量。 Statistics 中的 PLS 可作为扩展命令使用(分析 > 回归 > 偏最小二乘法),但是,除了通常随 Statistics 安装的 Python Essentials 之外,它还需要安装一些额外的库。如果你想这样做,请参阅安装说明。

至于使用回归会遗漏哪些变量,选择完全是任意的,因为除了完全共线性外,如果有 N 个案例,任何 N 个变量(包括常数项)都将给出完美拟合。