Pytorch實現神經網路的分類方式
阿新 • • 發佈:2020-01-09
本文用於利用Pytorch實現神經網路的分類!!!
1.訓練神經網路分類模型
import torch from torch.autograd import Variable import matplotlib.pyplot as plt import torch.nn.functional as F import torch.utils.data as Data torch.manual_seed(1)#設定隨機種子,使得每次生成的隨機數是確定的 BATCH_SIZE = 5#設定batch size #1.製作兩類資料 n_data = torch.ones( 1000,2 ) x0 = torch.normal( 1.5*n_data,1 )#均值為2 標準差為1 y0 = torch.zeros( 1000 ) x1 = torch.normal( -1.5*n_data,1 )#均值為-2 標準差為1 y1 = torch.ones( 1000 ) print("資料集維度:",x0.size(),y0.size()) #合併訓練資料集,並轉化資料型別為浮點型或整型 x = torch.cat( (x0,x1),0 ).type( torch.FloatTensor ) y = torch.cat( (y0,y1) ).type( torch.LongTensor ) print( "合併後的資料集維度:",x.data.size(),y.data.size() ) #當不使用batch size訓練資料時,將Tensor放入Variable中 # x,y = Variable(x),Variable(y) #繪製訓練資料 # plt.scatter( x.data.numpy()[:,0],x.data.numpy()[:,1],c=y.data.numpy()) # plt.show() #當使用batch size訓練資料時,首先將tensor轉化為Dataset格式 torch_dataset = Data.TensorDataset(x,y) #將dataset放入DataLoader中 loader = Data.DataLoader( dataset=torch_dataset,batch_size = BATCH_SIZE,#設定batch size shuffle=True,#打亂資料 num_workers=2#多執行緒讀取資料 ) #2.前向傳播過程 class Net(torch.nn.Module):#繼承基類Module的屬性和方法 def __init__(self,input,hidden,output): super(Net,self).__init__()#繼承__init__功能 self.hidden = torch.nn.Linear(input,hidden)#隱層的線性輸出 self.out = torch.nn.Linear(hidden,output)#輸出層線性輸出 def forward(self,x): x = F.relu(self.hidden(x)) x = self.out(x) return x # 訓練模型的同時儲存網路模型引數 def save(): #3.利用自定義的前向傳播過程設計網路,設定各層神經元數量 # net = Net(input=2,hidden=10,output=2) # print("神經網路結構:",net) #3.快速搭建神經網路模型 net = torch.nn.Sequential( torch.nn.Linear(2,10),#指定輸入層和隱層結點,獲得隱層線性輸出 torch.nn.ReLU(),#隱層非線性化 torch.nn.Linear(10,2)#指定隱層和輸出層結點,獲得輸出層線性輸出 ) #4.設定優化演算法、學習率 # optimizer = torch.optim.SGD( net.parameters(),lr=0.2 ) # optimizer = torch.optim.SGD( net.parameters(),lr=0.2,momentum=0.8 ) # optimizer = torch.optim.RMSprop( net.parameters(),alpha=0.9 ) optimizer = torch.optim.Adam( net.parameters(),betas=(0.9,0.99) ) #5.設定損失函式 loss_func = torch.nn.CrossEntropyLoss() plt.ion()#開啟畫布,視覺化更新過程 #6.迭代訓練 for epoch in range(2): for step,(batch_x,batch_y) in enumerate(loader): out = net(batch_x)#輸入訓練集,獲得當前迭代輸出值 loss = loss_func(out,batch_y)#獲得當前迭代的損失 optimizer.zero_grad()#清除上次迭代的更新梯度 loss.backward()#反向傳播 optimizer.step()#更新權重 if step%200==0: plt.cla()#清空之前畫布上的內容 entire_out = net(x)#測試整個訓練集 #獲得當前softmax層最大概率對應的索引值 pred = torch.max(F.softmax(entire_out),1)[1] #將二維壓縮為一維 pred_y = pred.data.numpy().squeeze() label_y = y.data.numpy() plt.scatter(x.data.numpy()[:,c=pred_y,cmap='RdYlGn') accuracy = sum(pred_y == label_y)/y.size() print("第 %d 個epoch,第 %d 次迭代,準確率為 %.2f"%(epoch+1,step/200+1,accuracy)) #在指定位置新增文字 plt.text(1.5,-4,'Accuracy=%.2f' % accuracy,fontdict={'size': 15,'color': 'red'}) plt.pause(2)#影象顯示時間 #7.儲存模型結構和引數 torch.save(net,'net.pkl') #7.只儲存模型引數 # torch.save(net.state_dict(),'net_param.pkl') plt.ioff()#關閉畫布 plt.show() if __name__ == '__main__': save()
2. 讀取已訓練好的模型測試資料
import torch from torch.autograd import Variable import matplotlib.pyplot as plt import torch.nn.functional as F #製作資料 n_data = torch.ones( 100,1 )#均值為2 標準差為1 y0 = torch.zeros( 100 ) x1 = torch.normal( -1.5*n_data,1 )#均值為-2 標準差為1 y1 = torch.ones( 100 ) print("資料集維度:",y.data.size() ) #將Tensor放入Variable中 x,Variable(y) #載入模型和引數 def restore_net(): net = torch.load('net.pkl') #獲得載入模型的預測輸出 pred = net(x) # 獲得當前softmax層最大概率對應的索引值 pred = torch.max(F.softmax(pred),1)[1] # 將二維壓縮為一維 pred_y = pred.data.numpy().squeeze() label_y = y.data.numpy() accuracy = sum(pred_y == label_y) / y.size() print("準確率為:",accuracy) plt.scatter(x.data.numpy()[:,cmap='RdYlGn') plt.show() #僅載入模型引數,需要先建立網路模型 def restore_param(): net = torch.nn.Sequential( torch.nn.Linear(2,2)#指定隱層和輸出層結點,獲得輸出層線性輸出 ) net.load_state_dict( torch.load('net_param.pkl') ) #獲得載入模型的預測輸出 pred = net(x) # 獲得當前softmax層最大概率對應的索引值 pred = torch.max(F.softmax(pred),cmap='RdYlGn') plt.show() if __name__ =='__main__': # restore_net() restore_param()
以上這篇Pytorch實現神經網路的分類方式就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。