sp1.1-1.2 Neural Networks and Deep Learning
阿新 • • 發佈:2018-11-15
Relu這影象也叫線性流動函式 不再用sigmoid函式當啟用函式 相當於max(0,x)函式 比較0和當前值哪個大 可以把隱藏層看作 前面整合 結構化資料基於資料庫 特徵都有明確的定義 非結構化資料比如圖片 音訊 畫素 關於資料規模 不同複雜程度下以及傳統機器學習的表現 紅線是傳統演算法 小規模資料量關鍵是還是看怎麼選特徵值了 各種都差不多 大規模資料量還是看網路了