1. 程式人生 > >深度學習引發的思考和三巨頭時代

深度學習引發的思考和三巨頭時代

        “在不久的將來,我們認為深度學習將取得更多成就,因為它只需要極少的人工參與,所以它能輕而易舉地從計算能力提升和資料量增長中獲得裨益。目前正在開發的用於深層神經網路的新型學習演算法和體系結構必將加速這一程序。”                                                                  《自然》-深度學習一文                                                                                                                                                                      

1.第一次聽到你的名字



        2013年10月的某一天,我在浙大碩士入學差不多一個多月,所在的CAD國家重點實驗室內部舉行了一次前沿技術分享的討論會。本次的分享人是實驗室的何曉飛教授(2005博士畢業於芝加哥大學,2016年4月份出任滴滴研究院首任院長,是國內乃至全球機器學習領域的大咖等等,總之很牛~),那是我第一次聽說 Deep Learning (深度學習)這個名詞。

        雖然是一次實驗室內部分享交流會,但是有五六十個座位的屋子卻擠得滿滿的,實驗室裡很多有資歷和學術比較厲害的教授也都去了。(簡單來說,這種場面還是比較少見,畢竟作為國內圖形學領域一哥的CAD, 就算是國外某藤校大牛過來也未必能有這麼高座次)。



        其實,作為吃瓜群眾的我,當時和班上很多同學一樣,並不是衝著分享內容去的,而是想過去看看年輕有為的大牛教授長啥樣子,畢竟就是同一個實驗室裡面樓上樓下的關係。雖然何教授平時為人低調,甚至有一次食堂吃飯他和蔡登老師(也很牛~)就坐在我旁邊桌上聊天。

        何老師當時分享的時候大概是這麼說的:我們最近也是剛開始接觸Deep Learning, 它的效能在很多Benchmark(資料庫競賽平臺)上都取得了很大的提升,而且在語音和視覺等很多領域方面也表現很好, 有些方面的準確率甚至超過了人類。

        這麼神奇的東西,大家聽了以後肯定要想問個究竟。 所以好多教授副教授就開始提問了: 何老師,這個DeepLearning 這麼神, 你能給咱大概說下它背後的工作原理是啥麼?

        何老師停頓少許,臉上露出淡淡地微笑說: 實在抱歉,這個Deep Learning是怎麼工作的,我還真不知道。據說目前世界上除了一個叫Hinton(辛頓)的老頭,其他人都不是很瞭解。Hinton開個了個公司(DNNresearch), 被谷歌以重金收購了,但公司裡只有三個員工,就是他自己和兩個學生。

        聽完這次分享會的時候,不知道大家是啥感覺,我的感覺是回去好好幹活,Deep Learning這個東西對我只有兩種可能:一是不靠譜,而是太遙遠。

2 . 深度學習三巨頭

        提起邁克爾-喬丹(Michael Jordan)這個名字, 相信全地球人都知道。為啥呢? 愛玩耍的同學知道他是籃球界的傳奇,愛學習的同學知道他是機器學習的傳奇。雖然這兩老頭不是一個人,但地球人都納悶,為啥叫邁克爾-喬丹的人都這麼牛?

        前者引領的公牛王朝六連冠戰績至今無人能破,今天就不說他了。後者現任加州伯克利大學教授,在許多年內是機器學習領域的泰山北斗之一,前百度深度研究院院長、斯坦福人工智慧實驗室主任吳恩達(Andrew Ng)就是他的得意門生之一,光是在美國常青藤當教授的徒子徒孫就有一大籮筐。所以喬丹有多牛,咱就不多廢話了~

        但是咱今天的重點是說一股大風。這股風有多大呢,簡單來說,這股風颳起來以後,全世界的人都在裡頭飄,有些是真的飄,有些是假的飄,還有些是裝著飄~ 不過同時,這股風催生了這個時代三位和邁克爾-喬丹名氣相當的男神,他們不僅在各大媒體電臺上頻頻曝光,坐擁數以萬計的粉絲,而且將會因為他們對於整個時代和人類歷史程序的影響,將其姓名寫入歷史的功勳薄中。這股風叫做深度學習,這三個男神分別是傑弗裡-辛頓(Geoffery Hinton), 揚-勒丘恩(Yann Le Cun) 和 約書亞-本吉奧 (Yoshua Bengio), 真想說,這三個人的中文名字寫出來真累~     

        先說Hinton吧,現在是多倫多大學的教授,谷歌工程院士,也在負責谷歌大腦(google brain)的相關工作。資歷最老,研究成果也豐富。上週還公開說目前風靡全球的深度學習框架太笨重,咱們要推倒重來,一般人說這話可能無關痛癢,但是老先生親口說出還是令人佩服的,畢竟他‘坐了30年的冷板凳’才等到今天享譽全球、描出劃時代的一筆。

        前兩天出了個“資訊瓶頸”理論說是揭示深度學習本質的東東,Hinton 說他要再看10000遍。真是羨慕老先生這種已經70歲仍然追求真理的科學精神。真希望他再多活50年~

        維基一段:傑弗裡·埃弗里斯特·辛頓 (Geoffrey Everest Hinton)(1947年12月6日-)是一位英國出生的計算機學家心理學家,以其在神經網路方面的貢獻聞名。辛頓是反向傳播演算法對比散度演算法的發明人之一,也是深度學習的積極推動者。
 
        再說說Lecun吧(好像前段這哥們到清華演講給自己取了個名字,叫楊立昆),紐約大學教授,目前是Facebook 人工智慧研究院的院長。據說是第一個把神經網路成功應用的人。比較有名的就是1989年那篇用反向傳播網路讓自己識別手寫1, 2,3,4,5……的論文。LeNet是深度學習入門的經典網路,就是用他名字取的。好像是三個裡面曝光率最高的,畢竟是FB的院長,各國演講籤協議是少不了的~

        維基一下:揚·勒丘恩(法語:Yann Le Cun,英語:Yann LeCun,1960年7月8日—)是一位電腦科學家,他在機器學習計算機視覺、mobile robotics和計算神經科學等領域都有很多貢獻。他最著名的工作是在光學字元識別計算機視覺上使用卷積神經網路 (CNN),他也被稱為卷積網路之父。他同Léon Bottou和Patrick Haffner等人一起建立了DjVu影象壓縮技術。他同Léon Bottou一起開發了Lush語言。  

        最後說說Bengio吧,目測是三巨頭裡面唯一一個在學校全職工作的,他在加拿大的蒙特利爾大學當全職教授,是三巨頭裡最年輕的一位。Bengio的貢獻主要在高階機器學習方面,比如自然語言處理等。去年出的《deeplearning》一書前兩個作者就是他的學生Ian Goodfellow和Bengio。可能是Bengio太低調了,維基裡頭都找不到他的中文介紹,就谷歌翻譯了一下。不過據說微軟全球副總裁沈向洋已經向Bengio丟擲橄欖枝了,FaceBook也在加拿大建立了研究院。 

        維基一下:Yoshua Bengio (1964年出生於法國 )是加拿大 電腦科學家 ,最著名的是他在人工神經網路深度學習方面的工作。 

本吉奧獲得麥吉爾大學 理學學士 (電氣工程),工程碩士 (電腦科學)和博士學位 (電腦科學)。 他是麻省理工學院博士後研究員( 邁克爾·喬丹 )和AT&T貝爾實驗室 。 班吉奧自1993年以來一直是蒙特利爾大學的教授,負責MILA(蒙特利爾學習演算法學院),並擔任加拿大高階研究所機器和大腦學習專案的聯合主任。

        其實“三巨頭”這個稱謂不一定準確,但因為這三人作為推動人工智慧和深度學習發展的傑出科學家,包括他們在15年聯名在《自然》上發表論文,也經常一起“搞大事情”,為了給大家一個容易記的印象,所以姑且就這麼稱呼著吧。

3. 值得反思的東西?   


        假設,bengio最終把微軟挖走,這樣看來,谷歌、臉譜和微軟三家都在AI佈局中搶到了“法寶”。尤其看過他三個的履歷後,發現這三個人分別來自英國和法國,並且是在加拿大一起工作的時候作出了重要成果,推動了深度學習的復興。這樣不得不佩服,美國大型科技公司在人才招攬方面的魄力和智慧(當然,還有一點,這個大家都懂~)。

        深度學習這個名詞第一次是2006年由Hinton等人提出,雖然它的歷史略早一些(這個之後會詳扒)。也就短短十來年的時間,它席捲了整個學術界和工業界、以及生活的方方面面。

        我突然想起了三件事情: 第一件就是四年前第一次聽到Deep Learning的時候, 覺得這東西很虛~  結果四年後開始著手做相關研究的時候,發現慢了許多步。第二件就是05上初中那會兒,第一次聽說阿里巴巴,大家覺得網銀和網購這事情非常不靠譜。第三件,就是時常聽人說,機器人再怎麼發展,也取代不了人~   第一件,過了十年,我笑了。第二件,過了四年我笑了,第三件,我聽到的時候笑而不語。

參考文獻【1】:維基百科

參考文獻【2】:《自然》 2015 年5月刊《深度學習》  

我們致力於推廣普及人工智慧(AI), 讓AI走進每個人的生活~

歡迎分享AI相關的人物軼事、工業應用、科普常識、動態前沿~

投稿郵箱:[email protected]

                                                                                                                                                                                       ——《萬眾AI》 2017年第四期
                                                                                                                   

相關推薦

深度學習引發思考巨頭時代

        “在不久的將來,我們認為深度學習將取得更多成就,因為它只需要極少的人工參與,所以它能輕而易舉地從計算能力提升和資料量增長中獲得裨益。目前正在開發的用於深層神經網路的新型學習演算法和體系結構必將加速這一程序。”                        

入門深度學習,先看看位頂級大牛Yann LeCun、Yoshua BengioGeoffrey Hinton的聯合綜述

【編者按】深度學習領域的三位大牛Yann LeCun、Yoshua Bengio和Geoffre

深度學習深刻理解應用--必看知識

3.1 講解 target 社區 github flow deep 卷積 work 1.深層學習為何要“Deep” 1.1 神經網絡:從數學和物理兩視角解釋,見:https://zhuanlan.zhihu.com/p/22888385 1.2 網絡加深

深度學習——線性單元梯度下降

每次 總結 只知道 指向 預測 模型 pre 叠代 $$ 機器學習的一些基本概念,模型、目標函數、優化算法等等,這些概念對於機器學習算法來說都是通用的套路。 線性單元   當我們面對的數據不是線性可分的時候,感知器規則就無法收斂,為了解決這個問題,我們使用一個可導的線性

深度學習中 GPU 視訊記憶體分析 深度學習中 GPU 視訊記憶體分析

轉 深度學習中 GPU 和視訊記憶體分析 2017年12月21日 14:05:01 lien0906 閱讀數:5941 更多

深度學習之經驗訓練集(訓練中英文樣本)

深度學習之經驗和訓練集(訓練中英文樣本) 學習深度學習和在深度學習兩年多,積累了很多的學習資料,以及一些經驗吧。 學習目標是什麼?這個是一切深度學習需要明確的目標 *目前在這個方面,前人研究到什麼程度?遇到那些困哪? 本人研究的是中文自然語言的讀(機器以某人的

人工智慧機器學習深度學習的區別聯絡

機器學習是一種實現人工智慧的方法,深度學習是一種實現機器學習的技術。 人工智慧 在1956年被提出,2012年之前一直飽受爭議,直到機器學習新演算法(深度學習)的出現,人工智慧迎來了大爆發。 人工智慧研究的分支有很多,包含:專家系統、機器學習、進化計算、模糊邏輯、計算機視覺、自然語言處理

深度學習用於文字序列

文字可以理解為單詞序列或字元序列      處理序列資料大的兩種深度學習演算法 1 迴圈神經網路  (recurrent neural network)2 一維卷積神經網路 演算法的應用: 神經網路不接受原始文字,和接受處理的數值張量,即文字向量

深度學習之儲存讀取tensorflow模型

儲存和讀取 TensorFlow 模型 儲存變數 載入變數 訓練一個模型並儲存它的權重 載入訓練好的模型 訓練一個模型的時間很長。但是你一旦關閉了 TensorFlow session,你所有訓練的權重和偏置項都丟失了。如果你計劃在之

機器學習6:邏輯迴歸到深度學習思考

如下圖,出現了不可分的情形: , 表明x1與x2並不是兩個很好的特徵,可以從如下方面進行思考: 1、通過特徵變換(將x1與x2通過各種運算組合得到新的可分特徵x3與x4),將模型變成線性可分的模型。比如將上述點轉換成每個點到一個固定座標的距離,得到如下情形: ,變成線性可分。 2

【轉載】演講實錄:百度大規模深度學習應用實踐開源AI框架PaddlePaddle

導語:本文根據PaddlePaddle技術負責人、百度NLP技術委員會主席於佃海在今年英特爾人工智慧大會上的演講——《百度大規模深度學習應用實踐和開源AI框架PaddlePaddle》整理而成。 PaddlePaddle技術負責人、百度NLP技術委員會主席於佃海 正文: 很高興能

深度學習基礎--BP訓練--常用的梯度下降

常用的梯度下降   梯度下降是線性迴歸的一種(Linear Regression) 1)Adam   Adam(Adaptive Moment Estimation)本質上是帶有動量項的RMSprop,它利用梯度的一階矩估計和二階矩估計動態調整每個引數的學習率。

深度學習基礎--BP訓練--中繼監督優化(intermediate supervision)

中繼監督優化(intermediate supervision)   如果直接對整個網路進行梯度下降,輸出層的誤差經過多層反向傳播會大幅減小,即發生vanishing gradients現象。為解決此問題,在每個階段的輸出上都計算損失。這種方法可以保證底層引數正

[Keras深度學習淺嘗]實戰·CNN實現Fashion MNIST 資料集分類

[Keras深度學習淺嘗]實戰三·RNN實現Fashion MNIST 資料集分類 與我們上篇博文[Keras深度學習淺嘗]實戰一結構相同,修改的地方有,定義網路與模型訓練兩部分,可以對比著來看。通過使用RNN結構,預測準確率略有提升,可以通過修改超引數以獲得更優結果。 程式碼部分

2018華為杯E題的一些思考維模型圖繪圖技巧總結

2018華為杯全國研究生數學建模E題:多無人機對組網雷達的協同干擾。第一部分先對賽題中幾個概念做出明確解釋!第二部分主要是模型需要使用的一些繪圖技巧總結。 1.賽題背景: 干擾機以"距離假目標欺騙"的方式來實施對地面組網雷達系統進行有效干擾。 注:干擾機基於偵察

Coursera-吳恩達-深度學習-神經網路深度學習-week1-測驗

本文章內容: Coursera吳恩達深度學習課程,第一課神經網路和深度學習Neural Networks and Deep Learning, 第一週:深度學習引言(Introduction to Deep Learning) 部分的測驗,題目及答案截圖。 正確:ABC

深度學習中DropoutLayer Normalization技術的使用

兩者的論文: Dropout:http://www.jmlr.org/papers/volume15/srivastava14a/srivastava14a.pdf Layer Normaliza

吳恩達深度學習第二課第週作業:識別手勢

# coding: utf-8 # # TensorFlow Tutorial # # Welcome to this week's programming assignment. Until now, you've always used numpy t

吳恩達深度學習第二課第週作業及學習心得體會 ——softmax、batchnorm

寫在前面 本週課程用了兩週完成,因為課程讓用tensorflow實現,編碼時還是更希望自己手寫程式碼實現,而在實現過程中,低估了batchnorm反向計算的難度,導致演算法出現各種bug,開始是維度上的bug導致程式碼無法執行,等程式碼可以執行時,訓練神經網路的時候成本又總

網易雲深度學習第一課第週程式設計作業

具有一個隱藏層的平面資料分類 第三週的程式設計任務: 構建一個含有一層隱藏層的神經網路,你將會發現這和使用邏輯迴歸有很大的不同。 首先先匯入在這個任務中你需要的所有的包。 -numpy是Python中與科學計算相關的基礎包 -sklearn提供簡單高效