本文主要是介绍5、TORCH.RANDOM,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
torch.random.
fork_rng
(devices=None, enabled=True, _caller='fork_rng', _devices_kw='devices')
分叉 RNG,以便当您返回时,RNG 会重置为之前的状态。
Parameters
1、devices (iterable of CUDA IDs)——要为其分叉 RNG 的 CUDA 设备。 CPU RNG 状态总是分叉的。 默认情况下,fork_rng() 在所有设备上运行,但如果你的机器有很多设备,它会发出警告,因为在这种情况下这个函数会运行得很慢。 如果你明确指定设备,这个警告将被抑制
2、enabled (bool) – 如果为 False,则 RNG 不会分叉。 这是一个方便的参数,可以轻松禁用上下文管理器,而无需删除它并取消缩进它下的 Python 代码。
torch.random.
get_rng_state
()
将随机数生成器状态作为 torch.ByteTensor 返回。
torch.random.
initial_seed
()
以 Python long 形式返回用于生成随机数的初始种子。
torch.random.
manual_seed
(seed)
设置生成随机数的种子。 返回一个 torch.Generator 对象。
Parameters
seed (int) – 所需的种子。 值必须在包含范围 [-0x8000_0000_0000_0000, 0xffff_ffff_ffff_ffff] 内。 否则,将引发 RuntimeError。 使用公式 0xffff_ffff_ffff_ffff + 种子将负输入重新映射为正值。
torch.random.
seed
()
将生成随机数的种子设置为非确定性随机数。 返回用于种子 RNG 的 64 位数字。
torch.random.
set_rng_state
(new_state)
设置随机数生成器状态。
Parameters
new_state (torch.ByteTensor) – 所需的状态
这篇关于5、TORCH.RANDOM的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!