繁体   English   中英

为什么我的内核在使用 PyTorch 训练我的神经网络时死掉并重新启动?

[英]Why do my kernel dies and restart while training my neural network with PyTorch?

我是 python 和 PyTorch 的初学者,我必须实现一个用于图像识别的神经网络。

一切正常,除了我的内核在第 78 次迭代时死亡并自动重新启动。 在每次迭代中,我们都在一批 64 张图像上训练网络(全套有 5000 张图像)。

我使用的是 Macbook Pro (10.14),我使用 pip 安装了 Pytorch。 这是我第一次遇到这个问题。

我在互联网上挖掘了一下,这可能是内存问题?

谢谢阅读!

 epochs = 10
 steps = 0
 print_every = 20
 running_loss = 0 
 for e in range(epochs):
 start = time.time()

 for i, (images, labels) in enumerate(iter(valloader)):
    steps += 1

    images.resize_(64, 3072)
    optimizer.zero_grad()
    output = net.forward(images)
    loss = loss_func(output, labels)
    loss.backward()
    optimizer.step()

    running_loss += loss.item()

当我开始训练神经网络时,我的 MacBook 重新启动。 报告中有一条内核恐慌消息。

我不知道内核恐慌的确切根本原因。 可能是 CPU 过热了。

但是当我将批量大小从 8 减少到 1 时,我有机会继续我的工作。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM