簡體   English   中英

為什么我的內核在使用 PyTorch 訓練我的神經網絡時死掉並重新啟動?

[英]Why do my kernel dies and restart while training my neural network with PyTorch?

我是 python 和 PyTorch 的初學者,我必須實現一個用於圖像識別的神經網絡。

一切正常,除了我的內核在第 78 次迭代時死亡並自動重新啟動。 在每次迭代中,我們都在一批 64 張圖像上訓練網絡(全套有 5000 張圖像)。

我使用的是 Macbook Pro (10.14),我使用 pip 安裝了 Pytorch。 這是我第一次遇到這個問題。

我在互聯網上挖掘了一下,這可能是內存問題?

謝謝閱讀!

 epochs = 10
 steps = 0
 print_every = 20
 running_loss = 0 
 for e in range(epochs):
 start = time.time()

 for i, (images, labels) in enumerate(iter(valloader)):
    steps += 1

    images.resize_(64, 3072)
    optimizer.zero_grad()
    output = net.forward(images)
    loss = loss_func(output, labels)
    loss.backward()
    optimizer.step()

    running_loss += loss.item()

當我開始訓練神經網絡時,我的 MacBook 重新啟動。 報告中有一條內核恐慌消息。

我不知道內核恐慌的確切根本原因。 可能是 CPU 過熱了。

但是當我將批量大小從 8 減少到 1 時,我有機會繼續我的工作。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM