關於深度學習的一些比較好的網站總結
神經網路模型之AlexNet的一些總結 http://www.cnblogs.com/gongxijun/p/6027747.html
卷積與濾波的一些特點 http://blog.csdn.net/zouxy09/article/details/49080029
深度神經網路結構以及Pre-Training的理解 http://www.cnblogs.com/neopenx/p/4575527.htmlalexnet
模型詳解 對 relu進行了詳解 http://blog.csdn.net/maweifei/article/details/53117830
一個比較好的關於影象識別與深度學習總結的博主 http://blog.csdn.net/zouxy09/article/category/1218762/2
caffe框架中 LRN層有什麼作用。改變各個引數會有怎麼的效果 ps:2012的alex net當中,使用了LRN,然而在very deep convolutional networks for large-scale image recognition又說沒用,具體看實驗資料 https://www.zhihu.com/question/26871787
區域性響應歸一化筆記 http://blog.csdn.net/hduxiejun/article/details/70570086 LRN(Local Response Normalization)
降取樣和升取樣 http://blog.csdn.net/u013146742/article/details/51865522
池化層 http://blog.csdn.net/tianrolin/article/details/52584848
啟用函式的作用 http://www.cnblogs.com/steven-yang/p/6357775.html
全連線層的作用到底是什麼 https://www.zhihu.com/question/41037974
一文弄懂神經網路中的反向傳播法 http://www.cnblogs.com/charlotte77/p/5629865.html
一維卷積過程 http://blog.sina.com.cn/s/blog_7445c2940102wmrp.html
python2.7與3並存安裝 http://www.cnblogs.com/CongZhang/p/5619093.html
t-分佈鄰域嵌入演算法(t-SNE algorithm)簡單理解 http://blog.csdn.net/lzl1663515011/article/details/46328337
linux下安裝boost http://blog.csdn.net/simtwo/article/details/8083598