为什么正则化强度负值不是正确的方法?
Why Regularization strength negative value is not a right approach?
我有一个关于在添加正则化强度 λ 参数时训练模型的一般性问题,因为它会对你的分数进行惩罚以防止过度拟合(据我所知 class 和下面链接的 Tootone 答案)
所以我们需要尽可能地减少 λ,所以我们使用它的反函数
我的问题是 >> 为什么使用负值不是正确的方法?并且没有给出正确的预测
What is the inverse of regularization strength in Logistic Regression? How should it affect my code?
当包含正则化参数时,您通常会修改成本函数以最小化
C(x) + λ * p(x)
其中 C(x) 是您的成本函数,p(x)>0 是惩罚。如果 λ<0 那么当你应该受到惩罚时,你将 受到奖励 高惩罚。
我有一个关于在添加正则化强度 λ 参数时训练模型的一般性问题,因为它会对你的分数进行惩罚以防止过度拟合(据我所知 class 和下面链接的 Tootone 答案)
所以我们需要尽可能地减少 λ,所以我们使用它的反函数
我的问题是 >> 为什么使用负值不是正确的方法?并且没有给出正确的预测
What is the inverse of regularization strength in Logistic Regression? How should it affect my code?
当包含正则化参数时,您通常会修改成本函数以最小化
C(x) + λ * p(x)
其中 C(x) 是您的成本函数,p(x)>0 是惩罚。如果 λ<0 那么当你应该受到惩罚时,你将 受到奖励 高惩罚。