[英]pytorch autograd obstructs script from terminating
每当我backward
调用 autograds 时,我的脚本永远不会终止。 backward
本身并不阻塞,它之后的所有行仍然被执行,脚本只是不会终止。 后台似乎有某种工作线程挂起,但我找不到有关它的任何信息。
我最初在训练神经网络时遇到了这个问题,但是我最终找到了一个具有相同行为的非常短的例子:
import torch
x = torch.randn(3, requires_grad=True)
y = x * 2
print(y)
gradients = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(gradients)
print(x.grad)
print("all done")
当我删除backward
行时,脚本按预期完成。 否则我在任务管理器中看到一个进程调用python
,如果我手动终止它,脚本执行也会终止。
我在 Windows 7 上使用conda create --name grad_test pytorch -c pytorch
) 在最新的稳定版本 (python 3.7, pytorch 1.2.0) 上安装了 pytorch。
它现在仍然存在,似乎是 Windows 7 特定的问题。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.