吳恩達-機器學習(4)-神經網路
阿新 • • 發佈:2018-12-19
文章目錄
Neural NetWorking
Non-linear Hypotheses
當特徵數量大時,在進行邏輯迴歸和線性迴歸時要包含所有的相關項,二項式的個數以n^2的量級增長,最終的結果可能過擬合,同時計算量也過大。
####Model Representation
為偏置單位,總是等於1,x是輸入,
是輸出,
是權重即函式的引數,
和邏輯迴歸中的邏輯函式相同,在神經元中被稱為激勵函式
第一層是輸入層,第二層是隱藏層,第三層是輸出層,每條邊上有一個權重
表示第j層的第i個激勵,所謂的激勵是指由一個具體神經元讀入、計算並輸出的值
第j層到第j+1層單元的權值矩陣
的維數是
,
表示第j層的單元數
將上述的公式向量化
Examples and Intuitions
構造實現與功能的神經網路
構造實現或功能的神經網路
構造實現異或功能的神經網路
Mutlli-class Classification
為了將資料分類為多個類,我們讓我們的假設函式返回一個值向量。假設我們想把我們的資料劃分為四類之一。我們將使用下面的例子來了解這種分類是如何完成的。這個演算法將輸入一個影象並相應地進行分類