簡體   English   中英

我的 google colab session 由於 RAM 使用過多而崩潰

[英]My google colab session is crashing due to excessive RAM usage

我正在用 2403 張 1280x720 像素的圖像訓練 CNN。 這是我正在運行的代碼:

from tensorflow.keras.preprocessing.image import ImageDataGenerator
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras.layers import Conv2D,MaxPooling2D,Activation,Dense,Flatten,Dropout
model = keras.Sequential()

model.add(Conv2D(32, (3, 3), input_shape=(1280,720,3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))

model.add(Conv2D(32, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))

model.add(Conv2D(64, (3, 3)))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))

model.add(Flatten())
model.add(Dense(64))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(3))
model.add(Activation('softmax'))

model.compile(loss='categorical_crossentropy',
              optimizer='rmsprop',
              metrics=['accuracy'])

train_datagen = ImageDataGenerator(
    rescale=1. / 255,
    shear_range=0.2,
    zoom_range=0.2,
    horizontal_flip=True)
# this is the augmentation configuration we will use for testing:
# only rescaling
test_datagen = ImageDataGenerator(rescale=1. / 255)

train_generator = train_datagen.flow_from_directory(
    '/gdrive/MyDrive/shot/training',
    target_size=(1280, 720),
    batch_size=640,
    class_mode='categorical')
history = model.fit(
    train_generator,
    steps_per_epoch= 2403//640,
    epochs= 15,
)

session 在第一個紀元之前崩潰。 有什么辦法可以減少 RAM 的使用嗎? 我還有什么其他選擇?

好像你有一個大批量,它消耗了所有的 RAM。 所以我建議首先嘗試使用較小的批量大小,如 32 或 64。此外,您的圖像尺寸太大,您可以在最初進行實驗時減小它。

train_generator = train_datagen.flow_from_directory(
    '/gdrive/MyDrive/shot/training',
    target_size=(256, 256),  # -> Change the image size
    batch_size=32,  # -> Reduce batch size
    class_mode='categorical'
)

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM