1. 程式人生 > 其它 >Pytorch損失函式總結

Pytorch損失函式總結

損失函式

nn.L1Loss 建立一個衡量輸入中每個元素之間的平均絕對誤差 (MAE) 的標準XX和目標是的是的.
nn.MSELoss 建立一個標準,用於測量輸入中每個元素之間的均方誤差(平方 L2 範數)XX和目標是的是的.
nn.CrossEntropyLoss 該標準計算輸入和目標之間的交叉熵損失。
nn.CTCLoss 聯結主義時間分類損失。
nn.NLLLoss 負對數似然損失。
nn.PoissonNLLLoss 目標泊松分佈的負對數似然損失。
nn.GaussianNLLLoss 高斯負對數似然損失。
nn.KLDivLoss Kullback-Leibler 散度損失。
nn.BCELoss 建立一個衡量目標和輸入概率之間的二元交叉熵的標準:
nn.BCEWithLogitsLoss 這種損失將Sigmoid層和BCELoss 組合在一個類中。
nn.MarginRankingLoss 建立一個標準來衡量給定輸入的損失x1× 1,x2× 2, 兩個 1D mini- batch 或 0D Tensor和一個標籤 1D mini-batch 或 0D Tensor 是的是的(包含 1 或 -1)。
nn.HingeEmbeddingLoss 測量給定輸入張量的損失XX和一個標籤張量是的是的(包含 1 或 -1)。
nn.MultiLabelMarginLoss
建立一個標準,優化輸入之間的多類多分類鉸鏈損失(margin-based loss)XX(一個 2D 小批量張量)和輸出是的是的(這是目標類索引的 2D張量)。
nn.HuberLoss 如果絕對元素級誤差低於 delta,則建立使用平方項的標準,否則使用 delta 縮放的 L1 項。
nn.SmoothL1Loss 如果絕對元素誤差低於 beta,則建立一個使用平方項的標準,否則建立一個 L1 項。
nn.SoftMarginLoss 建立一個優化輸入張量之間的二分類邏輯損失的標準XX和目標張量是的是的(包含 1 或 -1)。
nn.MultiLabelSoftMarginLoss
建立一個標準,該標準基於輸入之間的最大熵優化多標籤一對一損失XX和目標是的是的大小的(N, C)( N ,).
nn.CosineEmbeddingLoss 建立一個標準來衡量給定輸入張量的損失x_1X1,x_2X2和張量標籤是的是的值為 1 或 -1。
nn.MultiMarginLoss 建立一個標準,優化輸入之間的多類分類鉸鏈損失(基於邊距的損失)XX(一個 2D 小批量張量)和輸出是的是的(這是目標類索引的一維張量,0 \leq y \leq \text{x.size}(1)-10≤是的≤x.大小( 1 )-1):
nn.TripletMarginLoss 建立一個標準來衡量給定輸入張量的三元組損失x1× 1,x2× 2,x3× 3和一個值大於的邊距00.
nn.TripletMarginWithDistanceLoss 建立一個標準來衡量給定輸入張量的三元組損失一種一種,pp, 和nn(分別表示錨點、正例和負例),以及用於計算錨點和正例(“正例”)與錨點和負例之間關係的非負實值函式(“距離函式”) (“負距離”)。