1. 程式人生 > >8 神經網路的黑盒子不黑

8 神經網路的黑盒子不黑

神經網路內部並不是不可見的,而是神經網路經過輸入層,到隱藏層,隱藏層處理特徵變換之後,不再是我們所熟知的事物了。

原本的代表特徵被加工, 變成了另一種代表特徵, 同樣, 再次加工形成的代表特徵通常只有計算機自己看得懂, 能夠理解. 所以, 與其說黑盒是在加工處理, 還不如說是在將一種代表特徵轉換成另一種代表特徵, 一次次特徵之間的轉換, 也就是一次次的更有深度的理解. 比如神經網路如果接收人類手寫數字的圖片.

這種代表特徵的理解方式其實非常有用, 以至於人們拿著它來研究更高階的神經網路玩法. 比如遷移學習(Transfer Learning). 

遷移學習:對於一個有分類能力的神經網路, 有時候我們只需要這套神經網路的理解能力, 並拿這種能力去處理其他問題. 所以我們保留它的代表特徵轉換能力. 


注:Transfer learning 顧名思義就是把已學訓練好的模型引數遷移到新的模型來幫助新模型訓練資料集。就跟其他知友回答的那樣,考慮到大部分資料或任務是存在相關性的,所以通過transfer learning我們可以將已經學到的parameter 分享給新模型從而加快並優化模型的學習不用像之前那樣learn from zero.