1. 程式人生 > 程式設計 >基於MSELoss()與CrossEntropyLoss()的區別詳解

基於MSELoss()與CrossEntropyLoss()的區別詳解

基於pytorch來講

MSELoss()多用於迴歸問題,也可以用於one_hotted編碼形式,

CrossEntropyLoss()名字為交叉熵損失函式,不用於one_hotted編碼形式

MSELoss()要求batch_x與batch_y的tensor都是FloatTensor型別

CrossEntropyLoss()要求batch_x為Float,batch_y為LongTensor型別

(1)CrossEntropyLoss() 舉例說明:

比如二分類問題,最後一層輸出的為2個值,比如下面的程式碼:

class CNN (nn.Module ) :
  def __init__ ( self,hidden_size1,output_size,dropout_p) :
    super ( CNN,self ).__init__ ( )
    self.hidden_size1 = hidden_size1
    self.output_size = output_size
    self.dropout_p = dropout_p
    
    self.conv1 = nn.Conv1d ( 1,8,3,padding =1) 
    self.fc1 = nn.Linear (8*500,self.hidden_size1 )
    self.out = nn.Linear (self.hidden_size1,self.output_size ) 
 
  
  def forward ( self,encoder_outputs ) :
    cnn_out = F.max_pool1d ( F.relu (self.conv1(encoder_outputs)),2) 
    cnn_out = F.dropout ( cnn_out,self.dropout_p) #加一個dropout
    cnn_out = cnn_out.view (-1,8*500) 
    output_1 = torch.tanh ( self.fc1 ( cnn_out ) )
    output = self.out ( ouput_1)
    return output

最後的輸出結果為:

上面一個tensor為output結果,下面為target,沒有使用one_hotted編碼。

訓練過程如下:

cnn_optimizer = torch.optim.SGD(cnn.parameters(),learning_rate,momentum=0.9,\
              weight_decay=1e-5)
criterion = nn.CrossEntropyLoss()
 
def train ( input_variable,target_variable,cnn,cnn_optimizer,criterion ) :
  cnn_output = cnn( input_variable )
  print(cnn_output)
  print(target_variable)
  loss = criterion ( cnn_output,target_variable)
  cnn_optimizer.zero_grad ()
  loss.backward( )
  cnn_optimizer.step( )
  #print('loss: ',loss.item())
  return loss.item() #返回損失

說明CrossEntropyLoss()是output兩位為one_hotted編碼形式,但target不是one_hotted編碼形式。

(2)MSELoss() 舉例說明:

網路結構不變,但是標籤是one_hotted編碼形式。下面的圖僅做說明,網路結構不太對,出來的預測也不太對。

如果target不是one_hotted編碼形式會報錯,報的錯誤如下。

目前自己理解的兩者的區別,就是這樣的,至於多分類問題是不是也是樣的有待考察。

以上這篇基於MSELoss()與CrossEntropyLoss()的區別詳解就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。