![](/img/trans.png)
[英]Delete and list out the all models and deployment service from Azure Machine Learning Service using python
[英]Overfitting/Underfitting Machine Learning Models with Azure Machine Learning vs Python
我正在學習如何使用 Azure ML Studio 執行機器學習。 目前,我只玩過使用 Python 的機器學習。
我使用 Azure ML 和 Python 運行了相同的機器學習項目,以查看每個產品的結果與均方根誤差 (RMSE) 的接近程度。 到目前為止,Azure ML 和 Python 的 RMSE 已經大不相同。
我不明白為什么 RMSE 相差這么遠。 我能想到的唯一原因是 Python 在訓練數據上“擬合”模型的方式。 Python使用以下代碼擬合訓練數據
lr = LinearRegression(labelCol='xxxx')
lrModel = lr.fit(train_data)
但是,我不知道 Azure ML 如何擬合訓練數據。
有人可以讓我知道 Azure ML 如何完成訓練數據的擬合嗎?
我猜你可能用 RMSE = √( 1/n ∑ (y_i - pred_i)^2 ) 來計算 Python 中的 RMSE,其中 y 是真實標簽,pred 是線性回歸中的預測標簽?
我可以想象 Azure 使用稍微不同的術語,即 RSE = √( 1/(n-2) ∑ (y_i - pred_i)^2 ),其中使用貝塞爾校正項 1/(n-2) 代替。 這用於校正擬合 2 個參數的偏差(假設線性回歸僅擬合斜率和截距,否則 1/(nk) 是在多元線性回歸中擬合 k 個參數時的貝塞爾校正)
試試看! 然而,我無法解釋為什么 python 和 Azure 之間的差異如此之大,因為 Bessel 的校正項應該只會產生很小的差異。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.