1. 程式人生 > >tensorflow損失函式

tensorflow損失函式

啟用函式實現去線性化。 神經網路模型中,加入啟用函式後: 去線性化 加入啟用函式和偏置項後公式為: 在這裡插入圖片描述 我們常用的啟用函式有。 在這裡插入圖片描述

在這裡插入圖片描述 損失函式:解決倆類問題(1)分類問題(2)迴歸問題 (1)分類問題通過 交叉熵 來評估。 交叉熵(Cross Entropy)是Shannon資訊理論中一個重要概念,主要用於度量兩個概率分佈間的差異性資訊。語言模型的效能通常用交叉熵和複雜度(perplexity)來衡量。交叉熵的意義是用該模型對文字識別的難度,或者從壓縮的角度來看,每個詞平均要用幾個位來編碼。複雜度的意義是用該模型表示這一文字平均的分支數,其倒數可視為每個詞的平均概率。平滑是指對沒觀察到的N元組合賦予一個概率值,以保證詞序列總能通過語言模型得到一個概率值。通常使用的平滑技術有圖靈估計、刪除插值平滑、Katz平滑和Kneser-Ney平滑。 -------百度百科 在這裡插入圖片描述

在這裡插入圖片描述 在這裡插入圖片描述 通過softmax將神經網路變成概率分佈 在這裡插入圖片描述 在這裡插入圖片描述 tensorflow交叉熵程式碼如下: 在這裡插入圖片描述 在這裡插入圖片描述 在這裡插入圖片描述 在這裡插入圖片描述 在這裡插入圖片描述 在這裡插入圖片描述