1. 程式人生 > 程式設計 >Pytorch Tensor的統計屬性例項講解

Pytorch Tensor的統計屬性例項講解

1. 範數

示例程式碼:

import torch
 
a = torch.full([8],1)
b = a.reshape([2,4])
c = a.reshape([2,2,2])
 
# 求L1範數(所有元素絕對值求和)
print(a.norm(1),b.norm(1),c.norm(1))
# 求L2範數(所有元素的平方和再開根號)
print(a.norm(2),b.norm(2),c.norm(2))
 
# 在b的1號維度上求L1範數
print(b.norm(1,dim=1))
# 在b的1號維度上求L2範數
print(b.norm(2,dim=1))
 
# 在c的0號維度上求L1範數
print(c.norm(1,dim=0))
# 在c的0號維度上求L2範數
print(c.norm(2,dim=0))

輸出結果:

tensor(8.) tensor(8.) tensor(8.)
tensor(2.8284) tensor(2.8284) tensor(2.8284)
tensor([4.,4.])
tensor([2.,2.])
tensor([[2.,2.],[2.,2.]])
tensor([[1.4142,1.4142],[1.4142,1.4142]])

2. 一些常用操作

(1)均值、累加、最小、最大、累積

示例程式碼:

b = torch.arange(8).reshape(2,4).float()
print(b)
# 均值,累加,最小,最大,累積
print(b.mean(),b.sum(),b.min(),b.max(),b.prod())
# 打平後的最小最大值索引
print(b.argmax(),b.argmin())

輸出結果:

tensor([[0.,1.,2.,3.],[4.,5.,6.,7.]])
tensor(3.5000) tensor(28.) tensor(0.) tensor(7.) tensor(0.)
tensor(7) tensor(0)

注意:上面的argmax、argmin操作預設會將Tensor打平後取最大值索引和最小值索引,如果不希望Tenosr打平,而是求給定維度上的索引,需要指定在哪一個維度上求最大值索引或最小值索引。

比如,有shape=[4,10]的Tensor,表示4張圖片在10分類的概率結果,我們需要知道每張圖片的最可能的分類結果:

a = torch.rand(4,10)
print(a)
# 在第二維度上求最大值索引
print(a.argmax(dim=1))

輸出結果:

tensor([[0.0711,0.5641,0.7945,0.6964,0.3609,0.5817,0.1705,0.6913,0.1263,0.8346],[0.0810,0.0771,0.1983,0.0344,0.1067,0.9591,0.8515,0.3046,0.0491,0.1291],[0.3527,0.2676,0.9859,0.2656,0.1985,0.3759,0.8221,0.3571,0.5340,0.7759],[0.0969,0.3954,0.5478,0.3543,0.8253,0.9291,0.4960,0.4390,0.3780,0.5858]])
tensor([9,5,5])

(2)直接使用max和min配合dim引數也可以獲得最值索引,同時得到最值的具體值:

print(c.max(dim=1))

輸出結果:

(tensor([0.9589,1.7394,1.3448,2.2079]),tensor([2,7]))

(3)使用keepdim=True可以保持應有的dim,即僅僅是將求最值的那個dim的size變成了1,返回的結果是符合原Tensor語義的。

print(c.argmax(dim=1,keepdim=True))
print(c.max(dim=1,keepdim=True))

輸出結果:

tensor([[2],[2],[5],[7]])
(tensor([[0.9589],[1.7394],[1.3448],[2.2079]]),tensor([[2],[7]]))

(4)取前k大/前k小/第k小的概率值及其索引

使用topk代替max可以完成更靈活的需求,有時候不是僅僅要概率最大的那一個,而是概率最大的k個。如果不是求最大的k個,而是求最小的k個,只要使用引數largest=False,kthvalue還可以取第k小的概率值及其索引。

示例程式碼:

# 2個樣本,分為10個類別的置信度
d = torch.randn(2,10) 
# 最大概率的3個類別
print(d.topk(3,dim=1)) 
# 最小概率的3個類別
print(d.topk(3,dim=1,largest=False)) 
# 求第8小概率的類別(一共10個那就是第3大)
print(d.kthvalue(8,dim=1)) 

輸出結果:

(tensor([[2.0692,1.6490,0.9526],[1.5983,1.5737,1.5532]]),tensor([[6,3,5],[8,1,2]]))
(tensor([[-1.0023,-0.6423,0.0655],[-1.2959,-1.1504,-0.9859]]),tensor([[4,2],[0,3]]))
(tensor([0.9526,1.5532]),tensor([5,2]))

(5)比較操作

示例程式碼:

import torch
 
a = torch.randn(2,3)
b = torch.randn(2,3)
print(a)
print(b)
# 比較是否大於0,是對應位置返回1,否對應位置返回0,注意得到的是ByteTensor
print(a > 0) 
print(torch.gt(a,0))
# 是否不等於0,是對應位置返回1,否對應位置返回0
print(a != 0)
# 比較每個位置是否相等,是對應位置返回1,否對應位置返回0
print(torch.eq(a,b)) 
# 比較每個位置是否相等,全部相等時才返回True
print(torch.equal(a,b),torch.equal(a,a)) 

輸出結果:

tensor([[-0.1425,-1.1142,0.2224],[ 0.6142,1.7455,-1.1776]])
tensor([[-0.0774,-1.1012,-0.4862],[-0.3110,-0.2110,0.0381]])
tensor([[0,1],[1,0]],dtype=torch.uint8)
tensor([[0,dtype=torch.uint8)
tensor([[1,1]],0],dtype=torch.uint8)
False True

以上這篇Pytorch Tensor的統計屬性例項講解就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。