[英]PyTorch - a functional equivalent of nn.Module
正如我们所知,我们可以将任意数量的有状态构建块包装到继承自nn.Module
的 class 中。 但是,当您想要包装一堆无状态函数(来自nn.Functional
)时应该如何完成,以便充分利用nn.Module
允许您执行的操作,例如在 CPU 和 GPU 之间自动移动张量model.to(device)
?
我已经找到了解决方案:如果您在模块内部有一个创建新张量的操作,那么您必须使用self.register_buffer
才能充分利用设备之间的自动移动。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.