2021北京智源大會SNN部分
神經形態視覺計算
-
當前問題:
-
spikes vs bits (脈衝 vs 位)
-
meurons vs memory (神經元 vs 計算單元)(真空管vacuum tube,電晶體transistor,憶阻器memristor)
-
synapses vs memory(突觸 vs 記憶)
-
distributed and localized vs memory and computing separated (分散式和本地化 vs 記憶體和計算分離)
-
-
人工智慧計算效能與大腦計算效能的對比
- big data(資料),GPU(算力),algorithms(演算法)
- 在巨大的算力支撐下,演算法顯得不那麼重要
- 瓶頸:魯棒性、泛化能力弱(Robustness and generalization),開放環境適應性差(Flexibility)
-
新概念:什麼是神經形態計算(Neuromorphic Computing)
- 最開始是製造一個像大腦一樣的硬體系統
- 用大腦的結構提升類腦計算的效能,突破現代人工智慧的瓶頸
-
需要借鑑大腦的哪些結構
- 神經科學:突觸的資訊處理機制、突觸可塑性(2013諾貝爾生理醫學獎),大腦空間認知神經系統(2014諾貝爾生理醫學獎),皮層-海馬體學習和記憶系統(2017nature,2020science,2020neuron)
- 傳統晶片很難支援大量計算
- 硬體實現:脈衝視覺晶片、天機晶片、達爾文晶片等
- 類腦計算(neuromorphic computing)連線神經科學腦科學到硬體之間的橋樑
-
怎樣構建橋樑
- 模擬脈衝精確的訊號傳遞+快速傳遞機制(rapid and precise signaling)大腦以毫秒級傳輸資料
-
Nonlinearity 神經元的非線性
-
脈衝神經元:非線性,動力學特徵(temporal dynamics) 膜電位積分、漏電、不應期、脈衝發放
\(\tau_m\frac{dV_m}{dt}=-V_m+I(t)\)
輸入為脈衝訊號,輸出為脈衝訊號
-
人工神經元:ReLU或者Sigmoid啟用函式
\(\tau\frac{dV_{mem}}{dt}=-V_{mem}+\frac{\Delta}{i}V_i\omega_i\)
輸入為數字訊號,輸出為數字訊號
-
-
Wiring連線結構
-
Synaptic plasticity VS back propogation 突觸可塑性 VS 反向傳播
-
Local learning VS global loss function 區域性學習 VS 全域性損失函式
-
Hierarchical, parallel VS feedforward, lay-wise 分層、並行 VS 前饋、分層
-
新的問題:大腦能實現誤差反向傳播嗎?(對大腦學習機制的質疑)
生物神經元並不對稱,大腦傳遞與人工神經元並不完全類似
-
-
神經可塑性(Neuronal Plasticity)
- 大腦依賴於多重可塑性(multiple plasticity)和體內平衡機制(homeostasis mechanisms),這些機制作用於突觸(synaptic)和細胞內在(cell-instrinsic)的引數
- 脈衝時間依賴(Spike-timing-dependent)的可塑性似乎取決於網路細節活動(details of network activity),超過了平均發射率(average firing rates)
-
學習機制(Learning Rules)
-
Spike-Timing-Dependent-Plasticity(STDP)學習機制
-
調節神經元之間的連線強度,完成深層網路搭建
-
\(a_{di}(-\Delta t)=+A_{di}e^{\frac{\Delta t}{\tau_{di}}}~~~~~if~\Delta<0\)
\(a_{id}(-\Delta t)=-A_{id}e^{-\frac{\Delta t}{\tau_{id}}}~~~if~\Delta>0\)
-
-
Supervised Learning-Precise Spike Driven Plasticity 監督學習-精確的脈衝驅動可塑性(PSD)
-
通過將脈衝與核函式卷積,將輸入脈衝序列轉化為模擬訊號
-
突觸適應性由期望輸出和實際輸出之間的誤差決定,正的誤差叫做LTP,負的誤差叫做LTD
-
模型結構;
-
Learning rules:源自於常見的Widrow-Hoff演算法
-
-