繁体   English   中英

为什么当我把它设置为300时keras只做了10个时代?

[英]Why is keras only doing 10 epochs when I set it to 300?

我正在使用sklearn和Keras的组合与Theano作为后端运行。 我正在使用以下代码 -

import numpy as np
import pandas as pd
from pandas import Series, DataFrame
import keras
from keras.callbacks import EarlyStopping, ModelCheckpoint
from keras.constraints import maxnorm
from keras.models import Sequential
from keras.layers import Dense, Dropout
from keras.optimizers import SGD
from keras.wrappers.scikit_learn import KerasClassifier
from keras.constraints import maxnorm
from keras.utils.np_utils import to_categorical
from sklearn.model_selection import cross_val_score
from sklearn.preprocessing import LabelEncoder
from sklearn.model_selection import StratifiedKFold
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import Pipeline
from sklearn.model_selection import train_test_split
from datetime import datetime
import time
from datetime import timedelta
from __future__ import division

seed = 7
np.random.seed(seed)

Y = data['Genre']
del data['Genre']
X = data

encoder = LabelEncoder()
encoder.fit(Y)
encoded_Y = encoder.transform(Y)

X = X.as_matrix().astype("float")

calls=[EarlyStopping(monitor='acc', patience=10), ModelCheckpoint('C:/Users/1383921/Documents/NNs/model', monitor='acc', save_best_only=True, mode='auto', period=1)]

def create_baseline(): 
    # create model
    model = Sequential()
    model.add(Dense(18, input_dim=9, init='normal', activation='relu'))
    model.add(Dense(9, init='normal', activation='relu'))
    model.add(Dense(12, init='normal', activation='softmax'))
    # Compile model
    sgd = SGD(lr=0.01, momentum=0.8, decay=0.0, nesterov=False)
    model.compile(loss='categorical_crossentropy', optimizer=sgd, metrics=['accuracy'])
    return model

np.random.seed(seed)
estimators = []
estimators.append(('standardize', StandardScaler()))
estimators.append(('mlp', KerasClassifier(build_fn=create_baseline, nb_epoch=300, batch_size=16, verbose=2)))
pipeline = Pipeline(estimators)
kfold = StratifiedKFold(n_splits=10, shuffle=True, random_state=seed)
results = cross_val_score(pipeline, X, encoded_Y, cv=kfold, fit_params={'mlp__callbacks':calls})
print("Baseline: %.2f%% (%.2f%%)" % (results.mean()*100, results.std()*100))

我开始运行最后一部分的结果是 -

Epoch 1/10
...
Epoch 2/10

等等

它应该是Epoch 1/300 ,当我在不同的笔记本上运行时,它工作得很好。

你们认为发生了什么? np_epoch=300 ...

什么Keras版本是这个? 如果它大于2.0,那么nb_epoch就变成了epochs。 否则它默认为10。

在Keras 2.0 nb_epoch参数更名为epochs ,所以当你设定epochs=300运行300个时代。 如果你使用nb_epoch=300 ,它将默认为10。

问题的另一个解决方案 :忘掉nb_epoch(不起作用)。 在fit_params中传递时期:

results = cross_val_score(pipeline, X, encoded_Y, cv=kfold, 
          fit_params={'epochs':300,'mlp__callbacks':calls})

那会有用。 fit_params直接进入Fit方法,它将获得正确的时代。

在你的函数参数名称应epochs而不是nb_epochs 但是要非常小心。 例如,我用老式的方式训练我的ANN来声明参数( nb_epochs = number ),并且它工作(iPython控制台只向我显示了一些警告),但是当我在cross_val_score function插入相同的参数名称时,它不工作。

我认为sklearn所说的“Epoch”是你的交叉验证的一步。 所以它有300次训练10次:-)可能吗? 尝试使用verbose=1

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM