本文主要是介绍Pytorch:Tensor的高阶操作【where(按条件取元素)、gather(查表取元素)、scatter_(查表取元素)】【可并行计算,提高速度】,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
一、where:逐个元素按条件选取【并行计算,速度快】
torch.where(condition,x,y) #condition必须是tensor类型
condition的维度和x,y一致,用1和0分别表示该位置的取值
import torchcond = torch.tensor([[0.6, 0.7],[0.3, 0.6]])a = torch.tensor([[1., 1.],[1., 1.]])b = torch.tensor([[0., 0.],[0., 0.]])result = torch.where(cond > 0.5, a, b) # 此时cond只有0和1的值print('result = \n', result)
打印结果:
result =
tensor([[1., 1.],[0., 1.]])Process finished with exit code 0
二、gather:相当于查表取值操作
torch.gather(input, dim, index, out=None)
相当于查表取值操作
import torchprob = torch.randn(4, 6)
print("prob = \n", prob)prob_topk = prob.topk(dim=1, k=3) # prob在维度1中前三个最大的数,一共有4行,返回值和对应的下标
print("\nprob_topk = \n", prob_topk)topk_idx = prob_topk[1]
print("\ntopk_idx: ", topk_idx)temp = torch.arange(6) + 100 # 举个例子,这里的列表表示为: 0对应于100,1对应于101,以此类推,根据实际应用修改
label = temp.expand(4, 6)
print('\nlabel = ', label)result = torch.gather(label, dim=1, index=topk_idx.long()) # lable相当于one-hot编码,index表示索引
# 换而言是是y与x的函数映射关系,index表示x
print("\nresult:", result)
打印结果:
prob =
tensor([[-0.4978, 1.4266, -0.1138, 0.2140, -1.2865, -0.0214],[ 0.1554, -0.0286, 1.3697, 0.3916, 1.2014, -0.3400],[ 0.3241, -1.2284, 0.6961, 2.1932, 0.4673, 0.3504],[ 1.7158, 0.3352, -0.1968, 0.3934, 0.0186, 0.5031]])prob_topk = torch.return_types.topk(
values=tensor([[ 1.4266, 0.2140, -0.0214],[ 1.3697, 1.2014, 0.3916],[ 2.1932, 0.6961, 0.4673],[ 1.7158, 0.5031, 0.3934]]),
indices=tensor([[1, 3, 5],[2, 4, 3],[3, 2, 4],[0, 5, 3]]))topk_idx: tensor([[1, 3, 5],[2, 4, 3],[3, 2, 4],[0, 5, 3]])label = tensor([[100, 101, 102, 103, 104, 105],[100, 101, 102, 103, 104, 105],[100, 101, 102, 103, 104, 105],[100, 101, 102, 103, 104, 105]])result: tensor([[101, 103, 105],[102, 104, 103],[103, 102, 104],[100, 105, 103]])Process finished with exit code 0
三、scatter_()
scatter_(input, dim, index, src):将src中数据根据index中的索引按照dim的方向填进input。可以理解成放置元素或者修改元素
- dim:沿着哪个维度进行索引
- index:用来 scatter 的元素索引
- src:用来 scatter 的源元素,可以是一个标量或一个张量
x = torch.rand(2, 5)#tensor([[0.1940, 0.3340, 0.8184, 0.4269, 0.5945],
# [0.2078, 0.5978, 0.0074, 0.0943, 0.0266]])torch.zeros(3, 5).scatter_(0, torch.tensor([[0, 1, 2, 0, 0], [2, 0, 0, 1, 2]]), x)#tensor([[0.1940, 0.5978, 0.0074, 0.4269, 0.5945],
# [0.0000, 0.3340, 0.0000, 0.0943, 0.0000],
# [0.2078, 0.0000, 0.8184, 0.0000, 0.0266]])
解释:
数据源头是x,x有10个值,现在把这10个值撒到[3, 5]的矩阵中,那么每个值都要有一个新的位置索引,这个新的索引由index指定。
首先,有10个坑位:
然后把index写进去,dim=0,表示index代表第0维;
最后,按照自然顺序补充第二维索引
以第一行22为例,表示把x中[0, 2]的数据【0.8184】,路由到目标矩阵的[2, 2]位置。
参考资料:
torch.scatter
torch.scatter()
这篇关于Pytorch:Tensor的高阶操作【where(按条件取元素)、gather(查表取元素)、scatter_(查表取元素)】【可并行计算,提高速度】的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!