簡體   English   中英

Azure 機器學習與 Python 的過擬合/欠擬合機器學習模型

[英]Overfitting/Underfitting Machine Learning Models with Azure Machine Learning vs Python

我正在學習如何使用 Azure ML Studio 執行機器學習。 目前,我只玩過使用 Python 的機器學習。

我使用 Azure ML 和 Python 運行了相同的機器學習項目,以查看每個產品的結果與均方根誤差 (RMSE) 的接近程度。 到目前為止,Azure ML 和 Python 的 RMSE 已經大不相同。

我不明白為什么 RMSE 相差這么遠。 我能想到的唯一原因是 Python 在訓練數據上“擬合”模型的方式。 Python使用以下代碼擬合訓練數據

lr = LinearRegression(labelCol='xxxx')
lrModel = lr.fit(train_data)

但是,我不知道 Azure ML 如何擬合訓練數據。

有人可以讓我知道 Azure ML 如何完成訓練數據的擬合嗎?

我猜你可能用 RMSE = √( 1/n ∑ (y_i - pred_i)^2 ) 來計算 Python 中的 RMSE,其中 y 是真實標簽,pred 是線性回歸中的預測標簽?

我可以想象 Azure 使用稍微不同的術語,即 RSE = √( 1/(n-2) ∑ (y_i - pred_i)^2 ),其中使用貝塞爾校正項 1/(n-2) 代替。 這用於校正擬合 2 個參數的偏差(假設線性回歸僅擬合斜率和截距,否則 1/(nk) 是在多元線性回歸中擬合 k 個參數時的貝塞爾校正)

試試看! 然而,我無法解釋為什么 python 和 Azure 之間的差異如此之大,因為 Bessel 的校正項應該只會產生很小的差異。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM