pytorch60分鐘入門1
"""
在開頭加上from __future__ import print_function這句之後,即使在python2.X,
使用print就得像python3.X那樣加括號使用。python2.X中print不需要括號,而在python3.X中則需要;
低版本支援高版本,高版本不支援;
"""
from __future__ import print_function
import torch
x = torch.empty(5,3)##5行3列矩陣,未初始化;實際上會進行隨機初始化;
"""
tensor([[1.3220e-08, 4.5712e-41, 1.3220e-08],
[4.5712e-41, 8.8674e-04, 6.2717e+22],
[4.7428e+30, 1.8179e+31, 7.0948e+22],
[3.1855e-12, 1.7565e+25, 2.9590e+21],
[6.8899e+22, 2.6301e+20, 1.2118e+25]])
"""
print(x)
x = torch.empty(5,3,dtype=torch.float16)#帶型別建立,注意這裡是小寫torch;
print(x.type())#torch.HalfTensor
x = torch.rand(5,3)#這裡意思是均勻分佈
print(x)
x = torch.zeros(5,3)
x = torch.ones(3,2)#這裡我們指定初始化位0或者1;
y = torch.tensor([1,2])#這裡直接從張量建立,注意這裡的語法;
x = x.new_ones(3,2)
print(x)##根據已有張量進行建立,使用已有張量屬性;包括形狀,初始化值等;
x = x.new_ones(3,2,dtype=torch.float64)#這裡指定型別;另外一種語法形式如下:
x = torch.rand_like(x,dtype=torch.float32)#同上,只是語法稍微有所不同;並進行了型別覆蓋
print(x)
print(x.size())#torch.Size([3, 2])
x = x+x
x = torch.add(x,x)#二者是同樣意思;
torch.add(x,x,out=x)#將運算結果給x,省略了賦值操作;
x.add(x)#在x基礎上加上x;
x=torch.randn(4,4)#標準正太分佈
x = x.view(16)#轉換為一行
x = x.view(-1,8)#轉換為2行8列,這裡-1代表自動計算行;
print(x[0][0].item())#獲取具體數值內容,再轉換為數字;
x = x.numpy()
print(type(x))#<class 'numpy.ndarray'>轉換型別;
x = torch.from_numpy(x)
#裝置遷移
if torch.cuda.is_available():
device = torch.device('cuda')#建立一個cuda裝置物件;
gpu_tensor = torch.ones_like(x,device=device)#在GPU上建立一個張量
x = x.to(device)#和上面完全一樣,只是方式不同;
x = x.to('cpu',torch.double)#將張量轉移到cpu上,並設定型別。這裡使用的是字串形式遷移,本質是一樣