簡體   English   中英

從 cpu 傳輸一個 LSTM model 到 GPU

[英]Transfer an LSTM model from cpu to GPU

我有一個非常簡單的 LSTM model,它是我在 tensorflow 中構建的,它可以在 CPU 上運行。 但是,我想在 GPU 上使用這個 model。對於 pytorch,我已經定義了設備等,但是對於 tensorflow,我不知道為什么它不能工作。 你對我有什么建議嗎? 謝謝

model = Sequential()
model.add(LSTM(64, activation='relu', input_shape=(X_train.shape[1], X_train.shape[2]), return_sequences=True))
model.add(LSTM(32, activation='relu', return_sequences=False))
model.add(Dropout(0.1))
model.add(Dense(Y_train.shape[1], kernel_regularizer='l2'))
callback = tf.keras.callbacks.EarlyStopping(monitor='loss', patience=50)
opt = keras.optimizers.Adam(learning_rate=0.0008)
model.compile(optimizer=opt, loss='mse')
#model.summary()
history = model.fit(X_train, Y_train, epochs=2, batch_size=100, validation_data=(X_val, Y_val), callbacks=[callback],verbose=1, device).to(device)

對於 tensorflow,模型默認運行在 GPU 上進行計算。 它在他們的官方文檔中給出。

運行 model 時是否出現某種錯誤? 因為這在 GPU 而不是 CPU 上運行時應該也能正常工作。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM