基於MSELoss()與CrossEntropyLoss()的區別詳解
阿新 • • 發佈:2020-01-09
基於pytorch來講
MSELoss()多用於迴歸問題,也可以用於one_hotted編碼形式,
CrossEntropyLoss()名字為交叉熵損失函式,不用於one_hotted編碼形式
MSELoss()要求batch_x與batch_y的tensor都是FloatTensor型別
CrossEntropyLoss()要求batch_x為Float,batch_y為LongTensor型別
(1)CrossEntropyLoss() 舉例說明:
比如二分類問題,最後一層輸出的為2個值,比如下面的程式碼:
class CNN (nn.Module ) : def __init__ ( self,hidden_size1,output_size,dropout_p) : super ( CNN,self ).__init__ ( ) self.hidden_size1 = hidden_size1 self.output_size = output_size self.dropout_p = dropout_p self.conv1 = nn.Conv1d ( 1,8,3,padding =1) self.fc1 = nn.Linear (8*500,self.hidden_size1 ) self.out = nn.Linear (self.hidden_size1,self.output_size ) def forward ( self,encoder_outputs ) : cnn_out = F.max_pool1d ( F.relu (self.conv1(encoder_outputs)),2) cnn_out = F.dropout ( cnn_out,self.dropout_p) #加一個dropout cnn_out = cnn_out.view (-1,8*500) output_1 = torch.tanh ( self.fc1 ( cnn_out ) ) output = self.out ( ouput_1) return output
最後的輸出結果為:
上面一個tensor為output結果,下面為target,沒有使用one_hotted編碼。
訓練過程如下:
cnn_optimizer = torch.optim.SGD(cnn.parameters(),learning_rate,momentum=0.9,\ weight_decay=1e-5) criterion = nn.CrossEntropyLoss() def train ( input_variable,target_variable,cnn,cnn_optimizer,criterion ) : cnn_output = cnn( input_variable ) print(cnn_output) print(target_variable) loss = criterion ( cnn_output,target_variable) cnn_optimizer.zero_grad () loss.backward( ) cnn_optimizer.step( ) #print('loss: ',loss.item()) return loss.item() #返回損失
說明CrossEntropyLoss()是output兩位為one_hotted編碼形式,但target不是one_hotted編碼形式。
(2)MSELoss() 舉例說明:
網路結構不變,但是標籤是one_hotted編碼形式。下面的圖僅做說明,網路結構不太對,出來的預測也不太對。
如果target不是one_hotted編碼形式會報錯,報的錯誤如下。
目前自己理解的兩者的區別,就是這樣的,至於多分類問題是不是也是樣的有待考察。
以上這篇基於MSELoss()與CrossEntropyLoss()的區別詳解就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。