簡體   English   中英

機器學習模型的擴展

[英]Scaling on Machine Learning Models

我對機器學習模型中的縮放概念有些困惑。

在分類中,如果變量具有不同的尺度,我通常對自變量進行縮放並對目標變量進行標簽編碼,並對預測結果進行逆變換以獲得實際標簽

在回歸中,如果我的變量不同,我知道我們必須縮放自變量,我還應該縮放我的目標變量嗎?

如果我的理解在上述情況下是正確的,並且我應該在回歸模型中縮放我的目標變量,有人可以幫助我嗎?

提前致謝。

縮放應該只應用於特征,因為它對訓練過程有影響,所以當所有特征(自變量)都在相同(或相似)的尺度上時,通常訓練會更快並且收斂到一個好的解決方案,尤其是如果你'正在使用基於梯度的訓練算法,如 SGD 或 Adam,但對於目標(依賴)變量,您不需要縮放,因為您只需添加不會影響分類器(回歸量)質量的額外計算您'會得到。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM