torch.FloatTensor Variable
import torch
from torch.autograd import Variable
imgL = Variable(torch.FloatTensor(imgL))
imgR = Variable(torch.FloatTensor(imgR))
disp_L = Variable(torch.FloatTensor(disp_L))
1.資料計算
Torch 自稱為神經網路界的 Numpy, 因為他能將 torch 產生的 tensor 放在 GPU 中加速運算 (前提是你有合適的 GPU), 就像 Numpy 會把 array 放在 CPU 中加速運算。Torch和Numpy之間可以進行自由的切換:
import torch
import numpy as np
np_data = np.arange(6).reshape((2, 3))
torch_data = torch.from_numpy(np_data)
tensor2array = torch_data.numpy()
print(
'\nnumpy array:', np_data, # [[0 1 2], [3 4 5]]
'\ntorch tensor:', torch_data, # 0 1 2 \n 3 4 5 [torch.LongTensor of size 2x3]
'\ntensor to array:', tensor2array, # [[0 1 2], [3 4 5]]
)
Pytorch中的數學計算:
Pytorch中很多的數學計算與numpy中的數學計算函式是相同的:
# abs 絕對值計算
data = [-1, -2, 1, 2]
tensor = torch.FloatTensor(data) # 轉換成32位浮點 tensor
print(
'\nabs',
'\nnumpy: ', np.abs(data), # [1 2 1 2]
'\ntorch: ', torch.abs(tensor) # [1 2 1 2]
)
# sin 三角函式 sin
print(
'\nsin',
'\nnumpy: ', np.sin(data), # [-0.84147098 -0.90929743 0.84147098 0.90929743]
'\ntorch: ', torch.sin(tensor) # [-0.8415 -0.9093 0.8415 0.9093]
)
# mean 均值
print(
'\nmean',
'\nnumpy: ', np.mean(data), # 0.0
'\ntorch: ', torch.mean(tensor) # 0.0
)
# matrix multiplication 矩陣點乘
data = [[1,2], [3,4]]
tensor = torch.FloatTensor(data) # 轉換成32位浮點 tensor
# correct method
print(
'\nmatrix multiplication (matmul)',
'\nnumpy: ', np.matmul(data, data), # [[7, 10], [15, 22]]
'\ntorch: ', torch.mm(tensor, tensor) # [[7, 10], [15, 22]]
)
更多Pytorch中的資料計算函式,可以檢視以下文件(torch.Tensor):
http://pytorch.org/docs/tensors.html#
2.Variable 變數
Pytorch的Variable相當於一個Wraper,如果你想將資料傳送到Pytorch構建的圖中,就需要先將資料用Variable進行包裝,包裝後的Variable有三個attribute:data,creater,grad:(如下圖所示)
其中data就是我們被包裹起來的資料,creator是用來記錄通過何種計算得到當前的variable,grad則是在進行反向傳播的時候用來記錄資料的梯度的。
import torch
from torch.autograd import Variable
x = Variable(torch.ones(2, 2), requires_grad=True)
print(x)
print(x.data)
print(x.creator)
print(x.grad)
y = x + 2
print(y)
print(y.creator)
z = y * y * 3
out = z.mean()
print(z, out)
out.backward()
print(x.grad)