莫煩Python之機器學習概念了解
阿新 • • 發佈:2019-05-16
機器學習 化學 圖片 但是 結果 logs 意義 自然語言 網絡
1、機器學習分類
- 有監督學習
- 無監督學習
- 半監督學習
- 強化學習
- 遺傳算法
2、神經網絡
- 一種基於傳統統計學的模型,由大量的神經元與其關系構成。常用來對復雜的輸入和輸出關系進行建模
- 誤差反向傳遞:給出信號,得到經過神經網絡算法之後的結果(信號正向傳播),再根據結果來修改神經網絡中的神經元強度(信號反向傳播)
- 通過正向和反向傳播來更新神經元,從而形成更好的神經系統
- 每一個神經元都有屬於它的激活函數,在訓練過程中可以通過調整不同神經元的激活參數來調整模型
-
輸入層:負責信息的傳入
輸出層:權衡、中轉、輸出信息
隱藏層:負責傳入信息的加工處理
- ?????但是最重要的還是不知道啊,比如輸入層的信息具體怎麽處理,隱藏層怎麽加工,輸出層又是怎麽回事????具體是怎麽實現完全不知啊
3、卷積神經網絡(CNN)
- 應用:圖片識別、視頻分析、自然語言處理
-
數據輸入層,卷積計算層,RELU激勵層,池化層,全連接層(從這個博客看來的)
- 有一個批量過濾器,持續在圖片上滾動搜集圖片信息,每次只是一小塊信息,整理後得到邊緣信息;然後批量過濾器掃過邊緣的信息,神經網絡總結出更高層的信息;再一次過濾後總結出臉部信息;再把這些信息放入普通的全連接神經網絡進行分類
- 問題依舊是具體實現,怎麽搜集信息,怎麽整理,上面的那個博客講的很詳細。
4、循環神經網絡(RNN)
- 應用:語言分析,序列化數據的處理
- 為了讓神經網絡在有序數據集中學習,產生對當前發生事情的意義,也就是產生“上文聯系”
- x1數據下產生狀態s1以及結果y1,在x2數據下產生狀態s2,結果y2由狀態s1和s2共同創造
5、LSTM RNN
- LSTM:long short memery,長短期記憶
- 為了解決普通RNN的弊端(在誤差反向傳遞的時候,每循環一次都會乘以當前狀態的權重w,如果w>1,那麽返回的誤差就會很大,可能會發生梯度爆炸;而w<1,返回的誤差就會很小,可能發生梯度消失)
- 普通RNN沒有辦法回憶起久遠記憶(剛開始數據集產生的記憶)
- 與普通RNN的區別,增加了輸入、輸出、忘記,有主線記憶單元,當後面的數據與前面沖突時,按比例更改“主線內容”;如果與“主線”數據相關,則添加進“主線”
莫煩Python之機器學習概念了解