1. 程式人生 > >“人工智障”,我們還能忍你多久?

“人工智障”,我們還能忍你多久?

640?wx_fmt=gif

“每年我們都能看到媒體上人工智慧失敗案例的報道,背後是否反思了為什麼會發生這些啼笑皆非的事兒?本文盤點了人工智慧的失敗事件,與大眾與專家看待人工智慧的態度,試圖找到所謂“人工智障”的非技術成因。

640?wx_fmt=jpeg

作者 | Harry Wu 顏安琪

本文授權轉載自DT資料俠(微訊號:DTdatahero)

2018年11月,小米AIoT(人工智慧+物聯網)開發者大會上,“雷布斯”雷軍驕傲地展示了新品智慧音箱“小愛同學”。 

640?wx_fmt=gif

圖片說明:雷軍與AI問答 

雷軍:“小愛,你能做什麼?”

小愛:“人家還小嘛,這個問題太難了……”

... ...

雷軍:“三個木叫什麼?”

小愛:“木三分……”

雷軍:“三個木叫什麼?”

小愛:“你是電,你是光,你是唯一的神話。”

雷軍:“三個木頭的木叫什麼?”

小愛:“粘樹的木頭,感覺你是個樂觀……”

雷軍:“小愛,是不是每次演示的時候你都要出錯?”

尷尬的雷軍繼續問小愛,“125加357加567等於多少?”但小愛同學直接“下班”,不再回答,全場鬨笑一片。 

小米代表了中國智慧硬體的較高水平,但舞臺上小米的人工智慧產品,可能只是舞臺下觀眾眼裡的“人工智障”吧!

雷軍現場略顯尷尬,網路上則鬧騰著要為雷總寫首新歌,畢竟那首洗腦神曲《Are You OK》已經火了三年多了! 

事實上,失敗人工智慧的尷尬又何止“小米”一家呢?


640?wx_fmt=png

最好的AI時代到來了嗎?

 

2016年,一級市場抱怨沒有好專案投,二級市場抱怨沒有好股票買。那一年,一個叫“AlphaGo”的機器人擊敗韓國天才圍棋選手李世石;一年後,世界圍棋冠軍柯潔又哭成了淚人,因為他被這臺沒有自我意識,壓根不知道自己在下圍棋的機器三局橫掃。 

640?wx_fmt=png

歷史上AI與人類在棋牌與遊戲對戰的重要時刻 

就是這件事,我們突然從媒體上了解一個新詞——人工智慧(Artificial Intelligence,簡稱AI)。 

一場圍棋比賽掀起一股AI的浪潮,但這其實是AI有史以來的第三次浪潮了(前兩次都無果而終)!

640?wx_fmt=png

1956年達特茅斯會議首次提出AI概念,經歷三起兩落,如今因神經網路工程下深度學習的發展,AI正處於第三次浪潮之中 

AI是個大詞兒,就像“動物”一樣,分為無脊椎動物、有脊椎動物,根據一級分類,下設哺乳動物、兩棲動物、爬行動物等等。今天我們理解的AI概念太大了,當下的AI可以與機器學習劃等號,即為海量資料(標籤資料)、強大的電腦計算能力和演算法模型的綜合體。 

640?wx_fmt=png

當下資料驅動AI的三大要素:演算法、算力和大資料 

打個比喻,今天的機器學習好比F1賽車,想要奪冠,最好的汽油燃料(大資料)、最快發動機驅動的賽車(算力)和最精益賽車手(演算法)一個都不能少。 

百度推出開放自動駕駛平臺——阿波羅計劃,並在春晚上亮相了百度的無人駕駛汽車;阿里巴巴基於計算機視覺技術,控制杭州市的多個紅綠燈,並且智慧地疏導交通流量,用一個充滿智慧的機器大腦輔助城市交通執行;還有騰訊釋出的國內首個AI診療開放平臺,一些拍片子、測血壓、測脈搏的活兒,AI醫生信手拈來。 

相比人類工作者,AI至少有三大優勢:

● 不斷更新的大型資料庫——記憶力強,且學習能力更強

● 比人類算得快多了——計算能力強

● 它永遠不會累、 不會餓或生病——沒有情緒地工作

 但這也只是我們狹義理解的人工智慧的優勢,距離強AI的還很遠。 

泰格馬克在著作《生命3.0》中闡述了生命發展的三個版本。從簡單複製性繁殖的細胞,到會使用工具與兩性繁殖的人類,再到能夠自我繁衍軟體與硬體的強人工智慧,似乎生命找到了一個更高階的發展方向。被譽為“愛迪生繼承人”、谷歌未來預言家雷·庫茲韋爾(Ray Kurzweil)說:2045年,我們將實現奇點(電腦智慧與人腦智慧相容的那個神妙時刻)。

640?wx_fmt=png

生命3.0的定義

也許上帝創造了人,人創造了人工智慧,這些偉大的應用與思想讓人類膨脹了嗎?最好的人工智慧時代到來了嗎? 

不,事實是,AI離我們“這麼近”,也“那麼遠!” 

《矽谷百年史》作者皮埃羅·斯加魯菲教授向DT君表達了自己的觀點,今天的科技創新的速度與數量完全比不上上個世紀初葉時的水平。他認為:“人們離真正的智慧機器還非常遙遠;我不怕人工智慧的到來,相反,我怕它來得不夠快。” 

640?wx_fmt=png

皮埃羅在DT君的《智慧的本質》書上簽名寫道“AI還不夠智慧到讀懂這本書” 

2018年4月,“人工智慧泰斗”邁克爾·喬丹(不是打籃球那位)教授發表長文《人工智慧——革命遠未發生》,給當下火熱的人工智慧潑了冷水。他寫道:“目前AI領域取得的有限進展帶給我們的興奮(恐懼)導致了行業的過度反應和媒體的過度關注,目前AI的成功很有限。”

640?wx_fmt=jpeg

喬丹教授在Miedum上的文章《人工智慧——革命遠未發生》

事實上,當下我們還沒有“強人工智慧”(Artificial General Intelligence),那些輔助人類工作和部分功能替代性的機器只能稱為“弱人工智慧”(所以有時也會略顯弱智)。Facebook首席AI科學家Yann LeCun認為,人類今天接觸到的AI系統中沒有真正的人工智慧,並且都無法與生物系統的能力相配。 

未來學家馬丁·福特(Martin Ford)在新作《智慧建築師》中,對包括DeepMind(發明AlphGo的公司)創始人戴密斯·哈薩比斯(Demis Hassabis)、谷歌人工智慧團隊負責人傑夫·迪恩(Jeff Dean)、斯坦福大學教授李飛飛等在內的23位當今人工智慧領域最傑出的科學家進行採訪,並要求他們猜測一下,到哪一年AGI(強人工智慧/通用人工智慧)有50%的機會實現。 

答案極為兩極分化:庫茲韋爾的答案是2029年,機器人專家iRobot聯合創始人羅德尼·布魯克斯(Rodney Brooks)認為是2200年。其餘的猜測基本分散在這兩個極端之間,平均估值為2099年,也就是81年後。 

這樣的結果似乎並不意外,因為AI技術的廣泛應用不僅是科技本身的突破,隨之而來的邊界問題、責權問題、道德問題——這些在實驗室中不會出現的矛盾和憂慮被迅速發酵,也急需要逐一商討、解決。


640?wx_fmt=png

人工“智障”的真相


縱觀人工智慧的發展,“智障”事件比比皆是! 

不久之前,“董小姐闖紅燈”的新聞登上媒體頭條。智慧攝像頭掃描到通過紅綠燈的公交車身廣告上的董明珠,並誤判為闖紅燈,雖然交警部門事後立即進行刪除和系統升級,但如此的失誤讓人們對所謂“智慧交通”產生些許懷疑。

640?wx_fmt=gif

寧波智慧攝像頭誤將正在通過斑馬線的公交車廣告上的董明珠判別為闖紅燈者 

誤判行人還不算什麼大事,如果出了人命就嚴重了。2018年3月,優步的無人駕駛的在美國亞利桑那州城郊區撞死一位女性,觸發全球首例完全自主駕駛汽車致人死亡的事故;之後,谷歌、特斯拉等無人駕駛測試相繼出事,美國多地叫停無人駕駛測試。

640?wx_fmt=gif

Uber無人駕駛測試車車禍視訊 

而早在2015年,德國大眾汽車製造廠中一個機器人殺死了一名人類工作人員。當時這名21歲的工人正在安裝和調製機器人,機器人突然“出手”擊中工人的胸部,並將其碾壓在金屬板上,這名工人當場死亡。 

640?wx_fmt=png

2015年,電訊報對大眾工廠機器人致死案的報道

前文說,機器是沒有情緒的,但機器也是沒有情感的,沒有特殊場景下辨別是非好壞的能力。 

人工智慧這些年還曝出了“種族歧視”的問題。谷歌影象識別演算法將黑人自動新增“大猩猩”的標籤,而谷歌解決這個技術問題的方式竟然是禁止“大猩猩”一詞的標籤;亞馬遜的Alexa助手的音箱會無緣無故發出令人毛骨悚然的笑聲;微軟在Twitter平臺的聊天機器人Tay在與人類的對話中,竟然發表不恰當言論,成為一位種族主義機器人,直接“被下崗”……

640?wx_fmt=png

微軟聊天機器人Tay在Twitter上發表偏激言論

總之,在複雜的現實世界,AI做不到的,或者搞砸的事兒很多很多。所以,人們不得不考慮,誰該為“人工智障”負責?

但追問的前提或許是AI為什麼會出錯? 

雖然AI已經發展了70年,但在深度學習(機器學習的前沿技術,一種人工神經網路)被髮明至今,十幾年沒有新技術出現了,且目前AI的核心聚集在資料和演算法。對於喜歡買買買的消費者,在淘寶、京東等平臺上的商品自動推薦是最直觀的感受。 

你在購物網站瀏覽過運動鞋,下次再登入時,有關運動裝備的推送就會蜂擁而至。這就是人工智慧在大資料採集後,演算法用歸類的方式給你貼上了標籤。儘管如今計算資源不斷增強、資料池不斷擴增,但資料採集的不完整性(Data Integrity),仍然是深度學習的主要障礙,也是人工智慧成為“智障”的直接原因之一。 

一個典型案例是,醫療團隊使用AI輔助診斷病人的血液樣本,卻發現AI診斷出陽性結果的數量大大超出預料。而產生偏差的原因是,資料庫使用的血液樣本大多是健康、年輕的大學生,但醫院的病人年齡偏大,以至於人工智慧誤把“老年血”當成了“有病的血”。 

由此可見,正確且全面的資料採集對於AI實踐十分重要。 

媒體的宣傳是造成AI無所不能論調的導火線,在《智慧的本質》一書中,皮耶羅就媒體對AI的神化感到不安。在人機圍棋大戰中,AlphGo每小時耗能約440千瓦,卻只能做一件事,而對面的人類棋手只消耗20瓦能量。所以,算個簡單的數學題就知道那些神化AI的人算不上“聰明”。


640?wx_fmt=png

只會遲到,不會錯過的AI


通常我們把人類看待AI的態度分成三大類。 

第一類是極力反對AI的盧德主義者(工業革命時代打砸機器的收購業者);第二類是類似庫茲韋爾的超樂觀派;第三類是以吳恩達為代表的一線AI科學家們,他們肯定AI的作用與意義,但卻並不認為AI會立刻改變一切。 

640?wx_fmt=png

工業革命中打砸機器的盧德運動  來源:網路

今天的AI在某些特定領域已經開始替代人類工作,創新工場創始人李開復認為,現在那些用5-10秒就能抉擇的工作都會被AI取代。所以反抗AI的聲音主要來自於重複簡單工作的勞動者,真正行業的一線研究人員卻對AI既樂觀又謹慎。 

雖然AI還會犯錯,但有這麼一批科學工作者正在日以繼夜的讓AI變得更加智慧,更好地幫助人類。這就是我們看到的AI緝毒、AI破案等案例。 

640?wx_fmt=png

警方在張學友演唱會上抓捕到多名逃犯  來源:微博

2010年,美國南卡羅來納州的多切斯特縣,警察通過分析智慧電錶收集上來的家庭用電資料,抓住了一個在家裡種植大麻的人(因為需要把房子密封,把窗子釘起來,就需要大量用電)。2018年,“張學友演唱會抓罪犯事件”就是足夠多的資料標籤與動態人臉識別技術結合後的完美呈現。 

2017年,國務院印發《新一代人工智慧發展規劃》檔案,將AI升級為國家戰略,檔案一開頭這樣寫道:人工智慧的迅速發展將深刻改變人類社會生活、改變世界。 

我們應該明確,具備自我認知與不會犯錯的強人工智慧也許離我們還很遠,但未來終究會到來,人類必須面對一個真正的強AI時代。

推薦閱讀:

640?wx_fmt=gif

640?wx_fmt=gif