在 python 中具有 L2 范数的 LAD? (sklearn)
LAD with L2 norm in python? (sklearn)
我想在 sklearn 中实现 linear_model.Ridge() 的 LAD 版本。这意味着正则化仍然在 L2 范数上完成,但模型最小化了绝对偏差的总和,而不是误差的平方。这意味着我们正在最小化
这可能吗?
如果您在 scikit 中使用 SGDRegressor 学习指定 epsilon_insensitive 损失函数和 epsilon值设置为零,您将得到一个等效于 LAD 和 L2 正则化的模型。
我想在 sklearn 中实现 linear_model.Ridge() 的 LAD 版本。这意味着正则化仍然在 L2 范数上完成,但模型最小化了绝对偏差的总和,而不是误差的平方。这意味着我们正在最小化
这可能吗?
如果您在 scikit 中使用 SGDRegressor 学习指定 epsilon_insensitive 损失函数和 epsilon值设置为零,您将得到一个等效于 LAD 和 L2 正则化的模型。