繁体   English   中英

将神经网络转换为批量大小训练

[英]Convert Neural network into batch size training

我有一个我上网的神经网络代码,所以我没有完整的知识来完全理解它。 我正在使用 NN 进行命名实体识别。

这是我的词嵌入的大小

wordEmbeddings.shape (38419, 100)

我正在使用以下神经网络

words_input = Input(shape=(None,),dtype='int32',name='words_input')
words = Embedding(input_dim=wordEmbeddings.shape[0], output_dim=wordEmbeddings.shape[1],  weights=[wordEmbeddings], trainable=False)(words_input)

casing_input = Input(shape=(None,), dtype='int32', name='casing_input')
casing = Embedding(output_dim=caseEmbeddings.shape[1], input_dim=caseEmbeddings.shape[0], weights=[caseEmbeddings], trainable=False)(casing_input)

character_input=Input(shape=(None,52,),name='char_input')
embed_char_out=TimeDistributed(Embedding(len(char2Idx),30,embeddings_initializer=RandomUniform(minval=-0.5, maxval=0.5)), name='char_embedding')(character_input)
dropout= Dropout(0.5)(embed_char_out)
conv1d_out= TimeDistributed(Conv1D(kernel_size=3, filters=30, padding='same',activation='tanh', strides=1))(dropout)
maxpool_out=TimeDistributed(MaxPooling1D(52))(conv1d_out)
char = TimeDistributed(Flatten())(maxpool_out)
char = Dropout(0.5)(char)

output = concatenate([words, casing,char])
output = Bidirectional(LSTM(200, return_sequences=True, dropout=0.50, recurrent_dropout=0.25))(output)
output = TimeDistributed(Dense(len(label2Idx), activation='softmax'))(output)

model = Model(inputs=[words_input, casing_input,character_input], outputs=[output])
model.compile(loss='sparse_categorical_crossentropy', optimizer='nadam')
model.summary()

当我尝试训练我的模型时,它说我的 GPU 已耗尽:tensorflow.python.framework.errors_impl.ResourceExhaustedError

在词嵌入代码使用 wordEmbedding.shape[0] 这是 38419。这可能是问题吗?? 以及如何将其转换为批量训练?

在特定时期,NN 使用的 nd 数组 (5828,10,200) 超过 1 千万(太大了,这是我对 GPU 的限制)。

我写了代码,如果有任何地方这个限制已经耗尽,它会将批次分成 2 部分。 所以最后我得到的所有批次的 nd 阵列都小于 1 千万,然后它在我的 GPU 上成功运行。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM