[英]LAD with L2 norm in python? (sklearn)
I want to implement the LAD version of the linear_model.Ridge() in sklearn.我想在 sklearn 中实现 linear_model.Ridge() 的 LAD 版本。 Meaning the regularization is still done on the L2 norm but the model minimizes the sum of the absolute deviations not the squares of the errors.
这意味着正则化仍然在 L2 范数上完成,但模型最小化了绝对偏差的总和而不是误差的平方。 Meaning we're minimizing
意味着我们正在最小化
Is that possible?那可能吗?
如果您在 scikit learn 中使用SGDRegressor并指定epsilon_insensitive损失函数并将epsilon值设置为零,您将获得一个等效于 L2 正则化的 LAD 模型。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.