[英]Why do my kernel dies and restart while training my neural network with PyTorch?
我是 python 和 PyTorch 的初学者,我必须实现一个用于图像识别的神经网络。
一切正常,除了我的内核在第 78 次迭代时死亡并自动重新启动。 在每次迭代中,我们都在一批 64 张图像上训练网络(全套有 5000 张图像)。
我使用的是 Macbook Pro (10.14),我使用 pip 安装了 Pytorch。 这是我第一次遇到这个问题。
我在互联网上挖掘了一下,这可能是内存问题?
谢谢阅读!
epochs = 10
steps = 0
print_every = 20
running_loss = 0
for e in range(epochs):
start = time.time()
for i, (images, labels) in enumerate(iter(valloader)):
steps += 1
images.resize_(64, 3072)
optimizer.zero_grad()
output = net.forward(images)
loss = loss_func(output, labels)
loss.backward()
optimizer.step()
running_loss += loss.item()
当我开始训练神经网络时,我的 MacBook 重新启动。 报告中有一条内核恐慌消息。
我不知道内核恐慌的确切根本原因。 可能是 CPU 过热了。
但是当我将批量大小从 8 减少到 1 时,我有机会继续我的工作。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.