簡體   English   中英

python 中的回歸 OLS

[英]regression OLS in python

我對python中的多元回歸模型有一些疑問:

  1. 為什么有必要應用一個“虛擬截距”向量來開始最小二乘法 (OLS)? (我指的是 X = sm.add_constant(X) 的使用。我知道最小二乘法是一個等於零的導數系統。它是用某種迭代方法計算的,需要“虛擬截距”嗎?哪里我能找到一些關於算法 est = sm.OLS(y, X).fit() 細節的資料嗎?

  2. 據我了解, scale.fit_transform 產生數據的規范化。 通常歸一化不會產生高於 1 的值。為什么在縮放后我會看到超過 1 的值?

  3. 在哪里可以找到有關 python 函數的官方文檔?

提前致謝

  1. 在 OLS 中,您要擬合的 function 是:y=ax1+ax2+ax3+c。 如果您不使用 c 術語,您的線將始終通過原點。 因此,為了給你的線更多的自由度,它可以從你的原點偏移 c,你需要 c。

您可以擬合一條沒有常數項的直線,您將獲得一組系數(迭代計算不需要虛擬截距),但這可能不是最小化最小二乘的最佳直線。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM