SOM自組織神經網路學習
SOM背景介紹
SOM是一種自組織(競爭型)神經網路,其認為:一個神經網路接受外界輸入模式時,將會分為不同的對應區域,各區域對輸入模式具有不同的響應特徵,而且這個過程是自動完成的。SOM 網路正是根據這一看法提 出來的,通過不斷的發展,現已被廣泛應用於語音識別、影象 處理、分類聚類、組合優化 (如 TSP 問題)、資料分析和預測等 眾多資訊處理領域。
SOM網路結構
SOM網路由兩個層次組成,即輸入層和輸出層(競爭層)。 輸入層接受樣本輸入,節點數和樣本維數一樣;輸出層上,神經元之間相互競爭,通過修改神經元之間的連線權重,使得若干神經元活躍,並最終得出獲勝結點。神經元的排列有多種形式,有輸出層按一維陣列組織的SOM網,其結構最為簡單; 有輸出層按二維平面組織的 SOM 網,是最典型的組織方式, 其每個神經元同它周圍的其它神經元側向連線,並標以權重。
分類與聚類
分類是在類別知識等導師訊號的指導下,將待識別的輸入模式分配到各自的模式類中,
聚類是無導師指導的分類,目的是將相似的模式樣本劃歸一類,而將不相似的分離開來,實現模式樣本的類內相似性和類間分離性。由於無導師學習的訓練樣本中不含期望輸出,因此對於某一輸入模式樣本應屬於哪一類並沒有任何先驗知識。對於一組輸入模式,只能根據它們之間的相似程度來分為若干類,因此,相似性是輸入模式的聚類依據。
SOM演算法設計背景知識
SOM中度量相似性的兩種方法
1.歐式距離法
很容易證明,當圖中X與Xi都是模為1的單位向量時(其實不一定要1,只要是常數就行),歐氏距離等價於餘弦相似度(距離最小相似度越大),而餘弦相似度退化為向量內積。
2.餘弦法
優勝鄰域的設計
以獲勝神經元為中心設定一個鄰域半徑R,該半徑固定的範圍稱為優勝鄰域。在SOM網學習方法中,優勝鄰域內的所有神經元,均按其離開獲勝神經元距離的遠近不同程度調整權值。優勝鄰域開始定的較大,但其大小隨著訓練次數的增加不斷收縮,最終收縮到半徑為零。
學習率的設計
在訓練開始時,學習率可以選取較大的值,之後以較快的速度下降,這樣有利於很快捕捉到輸入向量的大致結構,然後學習率在較小的值上緩降至0值,這樣可以精細地調整權值使之符合輸入空間的樣本分佈結構。學習率就是一個遞減的函式(學習率可以參考上面優勝鄰域半徑的設定形式,可選形式類似),而優勝鄰域也是t的遞減函式,只不過我們隊優勝鄰域內的點進行更新罷了。
競爭學習原理
競爭學習規則的生理學基礎是神經細胞的側抑制現象:當一個神經細胞興奮後,會對其周圍的神經細胞產生抑制作用。最強的抑制作用是競爭獲勝的“唯我獨興”,這種做法稱為“勝者為王”(WinnerTake-All,WTA)。競爭學習規則就是從神經細胞的側抑制現象獲得的。
學習步驟
1.向量歸一化
2.尋找獲勝神經元
3.網路輸出與權調整
4.重新歸一化處理
學習演算法
1.初始化
2.接受輸入
3.尋找獲勝節點
4.定義優勝鄰域
5.調整權值
6.結束判定