[英]pytorch autograd obstructs script from terminating
每當我backward
調用 autograds 時,我的腳本永遠不會終止。 backward
本身並不阻塞,它之后的所有行仍然被執行,腳本只是不會終止。 后台似乎有某種工作線程掛起,但我找不到有關它的任何信息。
我最初在訓練神經網絡時遇到了這個問題,但是我最終找到了一個具有相同行為的非常短的例子:
import torch
x = torch.randn(3, requires_grad=True)
y = x * 2
print(y)
gradients = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(gradients)
print(x.grad)
print("all done")
當我刪除backward
行時,腳本按預期完成。 否則我在任務管理器中看到一個進程調用python
,如果我手動終止它,腳本執行也會終止。
我在 Windows 7 上使用conda create --name grad_test pytorch -c pytorch
) 在最新的穩定版本 (python 3.7, pytorch 1.2.0) 上安裝了 pytorch。
它現在仍然存在,似乎是 Windows 7 特定的問題。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.