Pytorch損失函式總結
阿新 • • 發佈:2022-03-23
損失函式
nn.L1Loss |
建立一個衡量輸入中每個元素之間的平均絕對誤差 (MAE) 的標準XX和目標是的是的. |
---|---|
nn.MSELoss |
建立一個標準,用於測量輸入中每個元素之間的均方誤差(平方 L2 範數)XX和目標是的是的. |
nn.CrossEntropyLoss |
該標準計算輸入和目標之間的交叉熵損失。 |
nn.CTCLoss |
聯結主義時間分類損失。 |
nn.NLLLoss |
負對數似然損失。 |
nn.PoissonNLLLoss |
目標泊松分佈的負對數似然損失。 |
nn.GaussianNLLLoss |
高斯負對數似然損失。 |
nn.KLDivLoss |
Kullback-Leibler 散度損失。 |
nn.BCELoss |
建立一個衡量目標和輸入概率之間的二元交叉熵的標準: |
nn.BCEWithLogitsLoss |
這種損失將Sigmoid層和BCELoss 組合在一個類中。 |
nn.MarginRankingLoss |
建立一個標準來衡量給定輸入的損失x1× 1,x2× 2, 兩個 1D mini- batch 或 0D Tensor和一個標籤 1D mini-batch 或 0D Tensor 是的是的(包含 1 或 -1)。 |
nn.HingeEmbeddingLoss |
測量給定輸入張量的損失XX和一個標籤張量是的是的(包含 1 或 -1)。 |
nn.MultiLabelMarginLoss |
建立一個標準,優化輸入之間的多類多分類鉸鏈損失(margin-based loss)XX(一個 2D 小批量張量)和輸出是的是的(這是目標類索引的 2D張量)。 |
nn.HuberLoss |
如果絕對元素級誤差低於 delta,則建立使用平方項的標準,否則使用 delta 縮放的 L1 項。 |
nn.SmoothL1Loss |
如果絕對元素誤差低於 beta,則建立一個使用平方項的標準,否則建立一個 L1 項。 |
nn.SoftMarginLoss |
建立一個優化輸入張量之間的二分類邏輯損失的標準XX和目標張量是的是的(包含 1 或 -1)。 |
nn.MultiLabelSoftMarginLoss |
建立一個標準,該標準基於輸入之間的最大熵優化多標籤一對一損失XX和目標是的是的大小的(N, C)( N ,三). |
nn.CosineEmbeddingLoss |
建立一個標準來衡量給定輸入張量的損失x_1X1,x_2X2和張量標籤是的是的值為 1 或 -1。 |
nn.MultiMarginLoss |
建立一個標準,優化輸入之間的多類分類鉸鏈損失(基於邊距的損失)XX(一個 2D 小批量張量)和輸出是的是的(這是目標類索引的一維張量,0 \leq y \leq \text{x.size}(1)-10≤是的≤x.大小( 1 )-1): |
nn.TripletMarginLoss |
建立一個標準來衡量給定輸入張量的三元組損失x1× 1,x2× 2,x3× 3和一個值大於的邊距00. |
nn.TripletMarginWithDistanceLoss |
建立一個標準來衡量給定輸入張量的三元組損失一種一種,pp, 和nn(分別表示錨點、正例和負例),以及用於計算錨點和正例(“正例”)與錨點和負例之間關係的非負實值函式(“距離函式”) (“負距離”)。 |