1. 程式人生 > 其它 >Pytorch和TensorFlow的softmax函式使用區別小記

Pytorch和TensorFlow的softmax函式使用區別小記

技術標籤:深度學習深度學習softmax

【背景】

Pytorch官方給的CNN模型中,在最後的分類層中並沒有使用softmax函式、

【異同】

pytorch裡面提供了一個損失函式:torch.nn.CrossEntropyLoss,這裡面整合了softmax函式,如果使用這個交叉熵,則不應該在最後一層再使用softmax進行啟用。這類似tensorflow中的tf.nn.softmax_cross_entropy_with_logits函式的功能,但是在命名上具有迷惑性。

如果在繪製AUC時候,需要拿到每個類別的分類則在pytorch中應該如下

outputs = model(img)  # 呼叫網路中的forward()方法
out_pro = torch.nn.functional.softmax(outputs)  # 計算輸出分類的概率,2類的和為1