繁体   English   中英

机器学习模型的扩展

[英]Scaling on Machine Learning Models

我对机器学习模型中的缩放概念有些困惑。

在分类中,如果变量具有不同的尺度,我通常对自变量进行缩放并对目标变量进行标签编码,并对预测结果进行逆变换以获得实际标签

在回归中,如果我的变量不同,我知道我们必须缩放自变量,我还应该缩放我的目标变量吗?

如果我的理解在上述情况下是正确的,并且我应该在回归模型中缩放我的目标变量,有人可以帮助我吗?

提前致谢。

缩放应该只应用于特征,因为它对训练过程有影响,所以当所有特征(自变量)都在相同(或相似)的尺度上时,通常训练会更快并且收敛到一个好的解决方案,尤其是如果你'正在使用基于梯度的训练算法,如 SGD 或 Adam,但对于目标(依赖)变量,您不需要缩放,因为您只需添加不会影响分类器(回归量)质量的额外计算您'会得到。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM