[英]Scaling on Machine Learning Models
我对机器学习模型中的缩放概念有些困惑。
在分类中,如果变量具有不同的尺度,我通常对自变量进行缩放并对目标变量进行标签编码,并对预测结果进行逆变换以获得实际标签
在回归中,如果我的变量不同,我知道我们必须缩放自变量,我还应该缩放我的目标变量吗?
如果我的理解在上述情况下是正确的,并且我应该在回归模型中缩放我的目标变量,有人可以帮助我吗?
提前致谢。
缩放应该只应用于特征,因为它对训练过程有影响,所以当所有特征(自变量)都在相同(或相似)的尺度上时,通常训练会更快并且收敛到一个好的解决方案,尤其是如果你'正在使用基于梯度的训练算法,如 SGD 或 Adam,但对于目标(依赖)变量,您不需要缩放,因为您只需添加不会影响分类器(回归量)质量的额外计算您'会得到。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.