1. 程式人生 > 實用技巧 >為AI注入一縷意識:構建更智慧、更強大的神經網路

為AI注入一縷意識:構建更智慧、更強大的神經網路

全文共2848字,預計學習時長8分鐘

圖源:unsplash

1998年,日本索尼電腦科學實驗室的一名工程師拍攝了一臺機器人在圍欄裡不知所措地到處跑的情景。機器人有兩個任務:避開障礙並在圍欄中找到特定物品,它通過了解場地佈局和目標物體的位置來完成任務。

但是,每當機器人遇到超預期的障礙時,有趣的現象就出現了:它的認知過程一時變得混亂起來。機器人努力應付和它對圍欄的預測不一致的新資料。

設立該實驗的研究人員解釋道,在不一致的情況下,機器人出現了“自我意識”。相比於像往常那樣執行,機器人必須將注意力轉移到內部——可以說,它在決定如何處理衝突。

(工程藝術公司(Engineered Arts)的假肢專家邁克·漢弗萊(Mike Humphrey)正在檢查弗瑞德(Fred)。Fred是用Penryn處理器製作的生物力學“梅斯梅爾(Mesmer)”機器人,於2018年5月9日在位於英格蘭康沃爾的公司總部製造完畢。| 圖源:Getty Images)

關於自我認知(在特定情況下發揮效用,比如當我們接收到不得不重新評估所處環境並作出如何執行下一步的決定時)的想法淵源已久,最早出現在20世紀初期德國哲學家馬丁·海德格爾(MartinHeidegger)的作品中。現在,越來越多的AI研究專家受到神經科學的影響,正在琢磨神經網路是否可以並應該達到與人腦相當的高水平認知。

當下,我們早就不關注那些“愚蠢”的機器人了——它們對自己究竟在哪或在做什麼毫無概念。我們希望,與人腦認知水平類似的意識能讓未來的AI更加智慧。這樣的AI可以自我學習,比如,如何選擇並重點關注資料以獲取可掌握並能輕鬆使用的新技能。

然而,賦予機器這類思考能力同樣帶來了風險及道德上的不確定性。

谷淳(Jun Tani)是1998年試驗的共同設計者、博士、現沖繩技術大學認知神經機器人研究室教授。他說:“我不設計認知”,他認為要用比喻的說法才能描述其機器人的“認知”行為,即機器人實際不會有人類認可的認知方式,它們不過是展示結構上類似的行為罷了。並且,他對機器思維及人類思維的相似性有著極高的興趣,甚至嘗試用機器人模擬自閉症相關的神經反應。

世界最著名的AI專家、魁北克人工智慧機構Mila 的創始人約書亞·本吉奧(YoshuaBengio)同樣痴迷於對AI認知的研究。他用駕駛類比認知和非認知行為的轉變。

他在郵件中解釋道:“一開始,你剛學會如何開車,這時是認知控制。在有了一些駕駛經驗後,大多數駕駛行為都是在無意識層面進行,你可以邊開車邊聊天。”

圖源:unsplash

更高階的專注處理水平並非總是必要的,甚至也不總是十分理想的。但是對於人類來說,學習新技能或適應突發的挑戰似乎至關重要。只有能獲取與人類相同的劃分優先順序、集中注意力及解決問題的能力,AI系統和機器人才有可能避免當前困擾它們的愚蠢行徑。

本吉奧及其同事在一定程度上受到我們對人類意識認識的啟發,用了幾年時間研究AI系統的“注意力機制”原則。這些系統能學習哪些資料是相關的,從而知道應該關注哪些內容才能完成給定任務。

本吉奧補充道:“在AI領域,研究認知仍披有禁忌色彩。”他認為,認知是個十分難以理解的理論,即便對神經科學家也是如此,討論認知形態的主力軍至今仍是哲學家。

有關人腦及人類認知體驗的知識與追求更先進的系統的相關性越來越高,並且已經帶來了一些趣味無窮的交叉研究。以牛津大學計算神經科學和神經外科教授牛頓·霍華德(Newton Howard)的研究為例,受人腦啟發,他和同事已經受人腦啟發設計了一個作業系統。

相比於靠一種方式解決問題,該系統能選擇最佳資料處理方式以完成任務——有點像人腦的不同部位處理各種資訊。

霍華德也用一個系統做實驗,該系統能從各種感測器及資源收集資料,以自動儲備各類話題的知識。他說,“部署好系統後,它就像個孩子,對一切充滿好奇。”

所有工作都零零散散地受到了目前對大腦瞭解的啟迪,這些有望推動今天的AI走的更遠。但是,有人質疑這或許不會幫我們進一步實現真正有意識的機器思維:在機身(或者晶片組)中有獨立自主的“靈魂”,能夠自主啟動意識。

哲學家丹尼爾·丹尼特(Daniel Dennett)一生大部分時間都在思考認知到底為何物。他認為,機器不會快速發展到人類認知水平——五十年內都不會。他和其它專家已經指出,今天能做出的AI看起來似乎沒有類似於反思或反思意識的行為,而這二者對認知而言不可或缺。

我們還在尋找有這些特性的系統,但也只有神經科學和AI研究的極大交疊才可能實現這一點。當下,認知還是科學的重大奧祕。哪怕科學家逐漸發現某些的神經連線與大腦有關,目前還是沒人知道它們究竟與大腦內哪些活動有關。一些研究人員發現,腦電波似乎與認知的特定狀態有關——清醒(如果你願意的話)。

牛津大學電腦科學研究助理卡米洛·米蓋爾·西諾萊利(Camilo Miguel Signorelli)認為,通過在機器中重複這類活動,我們或許能讓機器體驗認知思考。

他提到了電影《機械姬》(Ex Machina)中的機器人流動“溼體”大腦,這是一種基於凝膠的神經活動容器。電影中,奧斯卡·伊薩克(Oscar Isaac)飾演的角色創造了一個有認知的機器人。他解釋說:“我必須擺脫電路,我需要一些可以在分子水平上進行排列和重新排列的東西。

西諾萊利說,“這會是個理想的實驗模型”,因為流體的高塑化大腦可能得到配置,能體驗認知活動帶來的神經振盪,類似於我們看到的腦電波。必須要說明一下,這一點幾乎是假想。但也提出了問題:完全不同的硬體對引發機器的認知(如同人類的體驗)是否是必要的。

西諾萊利說,即便在未來的某天,我們成功證實計算機的確存在認知,或許也沒能力掌控它。他補充道,“我們可能會創造出一種有人類認知能力的動物,但我們無法控制這種認知。”

就像一些人爭辯的那樣,這種行為會創造出一種十分危險、不可預測的AI。但是,哪怕是能被證明無害的認知機器還是會衍生出道德難題:機器覺得疼、絕望、十分混亂時該當如何?

圖源:unsplash

安德拉·盧皮是劍橋大學的博士生,研究人腦活動及認知。他說:“我們得避免錯誤地給有認知的機器帶來痛苦的風險。”

可能很多年後,我們才需要解決這類問題。但為了建造更強大的系統,AI研究越來越關注神經科學及認知研究。這些正在發生,如同認知本身一般,我們很難預測這在未來會幫助我們創造什麼。

一起分享AI學習與發展的乾貨

歡迎關注全平臺AI垂類自媒體 “讀芯術”

(新增小編微信:dxsxbb,加入讀者圈,一起討論最新鮮的人工智慧科技哦~)