繁体   English   中英

使用 StatsModels 的置信区间和预测区间

[英]confidence and prediction intervals with StatsModels

我用StatsModels做这个linear regression

import numpy as np
import statsmodels.api as sm
from statsmodels.sandbox.regression.predstd import wls_prediction_std

n = 100

x = np.linspace(0, 10, n)
e = np.random.normal(size=n)
y = 1 + 0.5*x + 2*e
X = sm.add_constant(x)

re = sm.OLS(y, X).fit()
print(re.summary())

prstd, iv_l, iv_u = wls_prediction_std(re)

我的问题是, iv_liv_u是上下置信区间预测区间

我怎么得到别人?

我需要所有点的置信区间和预测区间,才能得到 plot。

对于测试数据,您可以尝试使用以下内容。

predictions = result.get_prediction(out_of_sample_df)
predictions.summary_frame(alpha=0.05)

我发现summary_frame()方法埋在这里,你可以找到get_prediction()方法在这里 您可以通过修改“alpha”参数来更改置信区间和预测区间的显着性水平。

我在这里发布这个是因为这是在寻找置信和预测区间的解决方案时出现的第一篇文章——尽管这与测试数据有关。

这是一个使用这种方法获取模型、新数据和任意分位数的函数:

def ols_quantile(m, X, q):
  # m: OLS model.
  # X: X matrix.
  # q: Quantile.
  #
  # Set alpha based on q.
  a = q * 2
  if q > 0.5:
    a = 2 * (1 - q)
  predictions = m.get_prediction(X)
  frame = predictions.summary_frame(alpha=a)
  if q > 0.5:
    return frame.obs_ci_upper
  return frame.obs_ci_lower

更新请参阅更新的第二个答案 一些模型和结果类现在有一个get_prediction方法,该方法提供附加信息,包括预测均值的预测区间和/或置信区间。

旧答案:

iv_liv_u为您提供每个点的预测区间的限制。

预测区间是观测值的置信区间,包括误差估计值。

我认为,平均预测的置信区间在statsmodels尚不可用。 (实际上,拟合值的置信区间隐藏在influence_outlier的summary_table中,但我需要验证这一点。)

统计模型的正确预测方法在 TODO 列表中。

添加

OLS 有置信区间,但访问有点笨拙。

在运行脚本后包含:

from statsmodels.stats.outliers_influence import summary_table

st, data, ss2 = summary_table(re, alpha=0.05)

fittedvalues = data[:, 2]
predict_mean_se  = data[:, 3]
predict_mean_ci_low, predict_mean_ci_upp = data[:, 4:6].T
predict_ci_low, predict_ci_upp = data[:, 6:8].T

# Check we got the right things
print np.max(np.abs(re.fittedvalues - fittedvalues))
print np.max(np.abs(iv_l - predict_ci_low))
print np.max(np.abs(iv_u - predict_ci_upp))

plt.plot(x, y, 'o')
plt.plot(x, fittedvalues, '-', lw=2)
plt.plot(x, predict_ci_low, 'r--', lw=2)
plt.plot(x, predict_ci_upp, 'r--', lw=2)
plt.plot(x, predict_mean_ci_low, 'r--', lw=2)
plt.plot(x, predict_mean_ci_upp, 'r--', lw=2)
plt.show()

在此处输入图片说明

这应该给出与 SAS 相同的结果, http://jpktd.blogspot.ca/2012/01/nice-thing-about-seeing-zeros.html

当您需要单个分位数的精确结果时, summary_framesummary_table可以很好地工作,但不能很好地矢量化。 这将提供预测区间(不是置信区间)的正常近似值,并适用于分位数向量:

def ols_quantile(m, X, q):
  # m: Statsmodels OLS model.
  # X: X matrix of data to predict.
  # q: Quantile.
  #
  from scipy.stats import norm
  mean_pred = m.predict(X)
  se = np.sqrt(m.scale)
  return mean_pred + norm.ppf(q) * se

对于时间序列结果,您可以使用get_forecast()方法获得更平滑的图。 下面是一个时间序列的例子:

# Seasonal Arima Modeling, no exogenous variable
model = SARIMAX(train['MI'], order=(1,1,1), seasonal_order=(1,1,0,12), enforce_invertibility=True)

results = model.fit()

results.summary()

在此处输入图片说明

下一步是进行预测,这会生成置信区间。

# make the predictions for 11 steps ahead
predictions_int = results.get_forecast(steps=11)
predictions_int.predicted_mean

在此处输入图片说明

这些可以放在数据框中,但需要一些清理:

# get a better view
predictions_int.conf_int()

在此处输入图片说明

连接数据框,但清理标题

conf_df = pd.concat([test['MI'],predictions_int.predicted_mean, predictions_int.conf_int()], axis = 1)

conf_df.head()

在此处输入图片说明

然后我们重命名列。

conf_df = conf_df.rename(columns={0: 'Predictions', 'lower MI': 'Lower CI', 'upper MI': 'Upper CI'})
conf_df.head()

在此处输入图片说明

制作情节。

# make a plot of model fit
# color = 'skyblue'

fig = plt.figure(figsize = (16,8))
ax1 = fig.add_subplot(111)


x = conf_df.index.values


upper = conf_df['Upper CI']
lower = conf_df['Lower CI']

conf_df['MI'].plot(color = 'blue', label = 'Actual')
conf_df['Predictions'].plot(color = 'orange',label = 'Predicted' )
upper.plot(color = 'grey', label = 'Upper CI')
lower.plot(color = 'grey', label = 'Lower CI')

# plot the legend for the first plot
plt.legend(loc = 'lower left', fontsize = 12)


# fill between the conf intervals
plt.fill_between(x, lower, upper, color='grey', alpha='0.2')

plt.ylim(1000,3500)

plt.show()

在此处输入图片说明

您可以在我的存储库 (https://github.com/shahejokarian/regression-prediction-interval ) 中使用 Ipython 笔记本中的 LRPI() 类来获取预测间隔。

您需要设置 t 值以获得预测值所需的置信区间,否则默认为 95% conf。 间隔。

LRPI 类使用 sklearn.linear_model 的 LinearRegression 、 numpy 和 pandas 库。

笔记本中也显示了一个示例。

要在此处添加 Max Ghenis 的响应 - 您可以使用 .get_prediction() 生成置信区间,而不仅仅是预测区间,方法是在之后使用 .conf_int() 。

predictions = result.get_prediction(out_of_sample_df)
predictions.conf_int(alpha = 0.05)

您可以根据 statsmodel 给出的结果和正态性假设来计算它们。

以下是平均值的 OLS 和 CI 示例:

import statsmodels.api as sm
import numpy as np
from scipy import stats

#Significance level:
sl = 0.05
#Evaluate mean value at a required point x0. Here, at the point (0.0,2.0) for N_model=2:
x0 = np.asarray([1.0, 0.0, 2.0])# If you have no constant in your model, remove the first 1.0. For more dimensions, add the desired values.

#Get an OLS model based on output y and the prepared vector X (as in your notation):
model = sm.OLS(endog = y, exog = X )
results = model.fit()
#Get two-tailed t-values:
(t_minus, t_plus) = stats.t.interval(alpha = (1.0 - sl), df =  len(results.resid) - len(x0) )
y_value_at_x0 = np.dot(results.params, x0)
lower_bound = y_value_at_x0 + t_minus*np.sqrt(results.mse_resid*( np.dot(np.dot(x0.T,results.normalized_cov_params),x0) ))
upper_bound = y_value_at_x0 +  t_plus*np.sqrt(results.mse_resid*( np.dot(np.dot(x0.T,results.normalized_cov_params),x0) ))

你可以用输入结果、点 x0 和显着性水平 sl 围绕这个包裹一个很好的函数。

我现在不确定您是否可以将它用于 WLS(),因为那里发生了额外的事情。

参考:[DC Montgomery 和 EA Peck。 “线性回归分析简介。” 4. 编辑,威利,1992]。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM