在numpy中我可以

import numpy as np

rs = np.random.RandomState(seed=0)

然后传递该对象,例如进行依赖注入。

PyTorch是否具有类似的界面? 我在文档中找不到任何内容,但也许我缺少了一些内容。

#1楼 票数:2 已采纳

最接近的是torch.manual_seed ,它设置生成随机数的种子并返回torch.Generator 该线程在此处提供了更多信息,显然取决于您使用的是GPU还是CPU,可能存在一些不一致之处。

  ask by grisaitis translate from so

未解决问题?本站智能推荐:

1回复

可重现的火炬结果和随机种子

我与Pytorch有一个简单的玩具NN。 我正在设置我可以在文档中找到的所有种子以及numpy random。 如果我从上到下运行下面的代码,结果似乎是可重复的。 但是,如果我只运行一次块1,然后每次运行块2,结果都会改变(有时会很大)。 我不确定为什么会这样,因为每次都要重新初
1回复

为什么设置随机种子不能在运行中提供相同的性能? [复制]

这个问题在这里已经有了答案: 如何在多次运行中重现 RNN 结果? (2 个回答) 10 个月前关闭。
2回复

使用 random.RandomState(None) 或 0 的 numpy 随机生成器的不一致复制

我以前遇到过这个问题。 当时,我随机导入了多次。 这次我在所有模块中导入了 numpy 一次。 编辑使用None可能是问题所在。 但仍然不能使用 0。最小的示例工作,所以它在代码中更深入,而不是关于导入任何东西(示例导入相同的模块)...... EDITED2我现在猜测它与列表中的排序有关吗?
2回复

torch.manual_seed 是否包含 torch.cuda.manual_seed_all 的操作?

是否torch.manual_seed包括操作torch.cuda.manual_seed_all ? 如果是,我们可以使用torch.manual_seed来设置种子。 否则我们应该调用这两个函数。
4回复

如何检索 NumPy 随机数生成器的当前种子?

以下导入 NumPy 并设置种子。 但是,我对设置种子不感兴趣,但更喜欢阅读它。 random.get_state()似乎不包含种子。 文档没有显示明显的答案。 假设我没有手动设置它,如何检索numpy.random使用的当前种子? 我想使用当前的种子来进行流程的下一次迭代。
2回复

在numpy中绘制相同的随机数

我得到以下代码: 我的目的是使变量rand_draw1和rand_draw2相同,除了前两行。 但是,即使是前两行,它们也完全相同。 最初我以为这个问题可以解决我的问题: 随机数生成-返回相同的数字 ,这表明这一定是由于以下事实:这些随机绘制基于机器时钟,并且因为命令实际上是在同
1回复

如果没有提供种子,NumPy 如何为其随机数生成器提供种子?

例如,假设我调用numpy.random.uniform(0, 1, 10)而不调用任何与种子相关的函数。 NumPy 必须使用一些默认种子,但我在文档中找不到它。 当没有指定种子时,NumPy 如何种子它的随机数?
1回复

我应该使用“random.seed”还是“numpy.random.seed”来控制“scikit-learn”中的随机数生成?

我正在使用 scikit-learn 和 numpy,我想设置全局种子,以便我的工作可重复。 我应该使用numpy.random.seed还是random.seed ? 从评论中的链接,我了解到它们是不同的,并且 numpy 版本不是线程安全的。 我想具体知道使用哪个来创建 IPython no