![](/img/trans.png)
[英]Multinomial Naive Bayes + neg_log_loss + Machine Learning + Python : How to use neg_log_loss with cross_val_score()
[英]how use cross_val_score to predict in machine learning
在我的課程中,我學習了如何使用交叉驗證來提高模型的准確性,訓練中的一切看起來都很漂亮。 但是當我去實踐訓練時我發現我不能使用經過交叉驗證訓練的模型,請按照我的代碼:
X = array[:,0:8]
Y = array[:,8]
num_folds = 10
seed = 7
kfold = KFold(num_folds, True, random_state = seed)
modelo = LogisticRegression()
resultado = cross_val_score(modelo, X, Y, cv = kfold)
print("Acurácia: %.3f" % (resultado.mean() * 100))
在這個交叉驗證邏輯中,我如何使用在我的測試數據中訓練的模型?
我正在嘗試類似modelo.predict(X_test)
但沒有成功
誰能幫我?
您需要先將模型與數據擬合,然后才能使用.predict
函數。 我相信你正在使用 scikit learn,所以:
clf = LogisticRegression()
clf = clf.fit(X, y)
clf.predict(X[:2, :])
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.