簡體   English   中英

pytorch autograd 阻止腳本終止

[英]pytorch autograd obstructs script from terminating

每當我backward調用 autograds 時,我的腳本永遠不會終止。 backward本身並不阻塞,它之后的所有行仍然被執行,腳本只是不會終止。 后台似乎有某種工作線程掛起,但我找不到有關它的任何信息。

我最初在訓練神經網絡時遇到了這個問題,但是我最終找到了一個具有相同行為的非常短的例子:

import torch

x = torch.randn(3, requires_grad=True)
y = x * 2
print(y)

gradients = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(gradients)
print(x.grad)

print("all done")

當我刪除backward行時,腳本按預期完成。 否則我在任務管理器中看到一個進程調用python ,如果我手動終止它,腳本執行也會終止。

我在 Windows 7 上使用conda create --name grad_test pytorch -c pytorch ) 在最新的穩定版本 (python 3.7, pytorch 1.2.0) 上安裝了 pytorch。

它現在仍然存在,似乎是 Windows 7 特定的問題。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM