我們都在一直關注著,人工智慧未來是咋樣的前景呢,我來為你們分析分析!!!
我們還沒能創造出可以解決多種多樣不同型別問題的人工通用智慧(artificial general intelligence)。我們還沒有聽一兩年人類對話的錄音就能自己說話的機器。儘管 AlphaGo 通過分析數千局比賽然後又進行更多的自我對弈而「學會」了下圍棋,但這同樣的程式卻不能用來掌握國際象棋。
同樣的一般方法呢?也許可以吧。但我們目前最好的成就離真正的通用智慧還很遠——真正的通用智慧能靈活地無監督地學習,或能足夠靈活地選擇自己想要學習的內容,不管那是玩棋盤遊戲,還是設計 PC 板。
邁向通用人工智慧
我們如何從狹窄的、特定領域的智慧邁向更通用的智慧呢?這裡說的「通用智慧」並不一定意味著人類智慧,但我們確實想要機器能在沒有編碼特定領域知識的情況下解決不同種類的問題。我們希望機器能做出人類的判斷和決策。
這並不一定意味著機器將實現創造力、直覺或本能等沒有數字類比的概念。通用智慧將具備處理多種型別的任務和適應未曾預料的情形的能力。一個通用智慧無疑可以實現「正義」和「公平」這樣的概念:我們已經在談論人工智慧對法律系統的影響了。
我們先以自動駕駛汽車來證明我們所面臨的問題。要實現自動駕駛,汽車需要將模式識別和其它能力整合到一起,包括推理、規劃和記憶。它需要識別模式,這樣才能對障礙物和街道標誌做出反應;它需要推理,這樣才能理解交通規則和解決像避開障礙物等任務;它需要規劃以獲得從當前位置到目標位置的路徑,並同時考慮到交通狀況等其它模式。
它需要不斷重複做這些事,不斷更新它的解決方案。但是,即使一輛自動駕駛汽車整合了所有這些人工智慧,它也不具備我們所期望的通用智慧應該具備的靈活性。你不會期待一輛自動駕駛汽車能和你交談或佈置你的花園。將從一個領域學習到的知識應用到另一個領域的遷移學習是非常困難的。
你也許可以重新加工其中許多軟體元件,但那隻能指出缺少了什麼:我們當前的人工智慧能為特定問題提供範圍狹窄的解決方案,它們並不是通用的問題解決者。你可以將範圍狹窄的人工智慧疊加到一起(一輛車可以帶有能談論去哪裡、進行餐廳推薦和與你下棋讓你不會感覺無聊的 Bot),但狹窄人工智慧的疊加永遠不能得到一個通用人工智慧。通用人工智慧的關鍵不是有多少種能力,而是這些能力的整合。
儘管神經網路這樣的方法原本是為模擬人腦過程而開發的,但許多人工智慧計劃已經放棄了模仿生物大腦的概念。我們不知道大腦的工作方式;神經網路計算是非常有用的,但它們並沒有模擬人類的思維。
在《Artificial Intelligence: A Modern Approach》一書中,Peter Norvig 和 Stuart Russell 寫道:“當萊特兄弟和其他人停止模仿鳥類並開始學習空氣動力學時,對『人工飛行』的追求才獲得成功。”
類似地,要取得成功,人工智慧不需要將重點放到模仿大腦的生物過程上,而應該嘗試理解大腦所處理的問題。可以合理地估計,人類使用了任意數量的技術進行學習,而不管生物學層面上可能會發生什麼。這可能對通用人工智慧來說也是一樣:它將使用模式匹配(類似 AlphaGo),它將使用基於規則的系統(類似沃森),它將使用窮舉搜尋樹(類似深藍)。
這些技術沒有一種能與人類智慧直接對應。
人類比任何計算機都做得更好的是構建他們的世界的模型,並根據這些模型採取行動。超越通用智慧後的下一步是超智慧(super-intelligence 或 hyper-intelligence)。目前我們還不清楚如何區分通用人工智慧和超智慧。我們期望超智慧系統會具備創造力和直覺等性質嗎?鑑於我們對人類的創造力還不甚理解,思考機器的創造力就更為困難了。
圍棋專家稱 AlphaGo 的一些落子是“創造性的”;但它們源自與其它所有落子完全一樣的過程和模式,而並非以一種新的視角看待這項遊戲。同樣演算法的重複應用可能會產生讓人類感到驚訝或意外的結果,但僅僅的驚訝並不是我們所說的“創造力”。
將超智慧看作一個規模問題會更容易一點。如果我們可以創造「通用智慧」,可以很容易估計出它將很快就比人類強大成千上萬倍。或者,更準確地說,通用人工智慧要麼將顯著慢於人類思維,難以通過硬體或軟體加速;要麼就將通過大規模並行和硬體改進而獲得快速提速。
我們將從數千個核心 GPU 擴充套件到數千個晶片上的數以萬億計的核心,其資料流來自數十億的感測器。在第一種情況中,當加速變緩時,通用智慧可能不會那麼有趣(儘管它將成為研究者的一次偉大旅程)。在第二種情況中,其增速的斜坡將會非常陡峭、非常快。
訓練還是不訓練
AlphaGo 的開發者聲稱使用了遠比深藍更通用的演算法來訓練人工智慧:他們製作了一個只具備最少圍棋知識策略的系統,學習主要是通過觀察圍棋比賽獲得。這指明瞭下一個大方向:我們可以從機器基於標註資料的監督學習走向機器依靠自己組織和結構化資料的無監督學習嗎?
Yann LeCun 曾在 Facebook 的一篇帖子中說到:“在我們想要得到真正的人工智慧之前,我們必須解決無監督學習的問題。”
要對照片分類,一個人工智慧系統首先會獲得數百萬張已經正確分類了的照片;在學習了這些分類之後,它還要使用一系列標註了的照片進行測試,看它們是否能夠正確標註這個測試集。如果沒有標註,機器又能做什麼?如果沒有元資料告訴機器“這是鳥,這是飛機,這是花”,它還能發現照片中重要的內容嗎?機器能像人和動物一樣,只需觀察遠遠更少的資料就能發現模式嗎?
人類和動物都可以從相對很少的資料中構建模型和抽象:比如,我們不需要幾百萬張影象才能識別出一種新的鳥或在一座新城市找到我們的路。研究者正在研究的一個問題是對視訊的未來畫面的預測,這將需要人工智慧系統構建對世界運作方式的理解。
有可能開發出能應對全新環境的系統嗎?比如在冰面汽車會難以預料的打滑。人類可以解決這些問題,儘管它們不一定很擅長。無監督學習指出,光是靠更好更快的硬體,或開發者只是用當前的庫進行開發,問題將無法得到解決。
有一些學習方法處在監督學習和無監督學習的中間。在強化學習中,系統會被給予一些代表獎勵(reward)的值。機器人可以穿過一片地面而不跌倒嗎?機器人可以不用地圖就駕駛汽車穿過市中心嗎?獎勵可以被反饋給系統並最大化成功的概率。(OpenAI Gym 是一個很有潛力的強化學習框架)。
在一端,監督學習意味著再現一組標記,這在本質上是模式識別,而且容易發生過擬合。在另一個極端,完全無監督學習意味著學習歸納性地推理關於一個情形的情況,這還需要演算法上的突破。半監督學習(使用最少的標註)或強化學習(通過連續決策)代表著這些極端之間的方法。我們將看到它們能達到哪種程度。
智慧的意義
我們所說的「智慧」是一個根本性的問題。在 Radar 2014 年的一篇文章中,Beau Cronin 出色地總結了許多人工智慧的定義。我們對人工智慧的期待嚴重依賴於我們希望用人工智慧做什麼。對人工智慧的討論幾乎總是開始於圖靈測試。
圖靈假設人們可以通過聊天的方式與計算機互動:他假設了一種與計算機的溝通方式。這個假設限制了我們期望計算機做的事:比如,我們不能期望它能駕駛汽車或組裝電路。這也是一個故意的模稜兩可的測試。計算機的答案可能是閃爍其詞的或完全不正確的,正確無誤不是重點。人類智慧也可能會是閃爍其側或不正確的。我們不大可能將正確無誤的人工智慧誤解為人類。
如果我們假設人工智慧必須被嵌入到能夠運動的硬體中,比如機器人或自動駕駛汽車,我們會得到一組不同的標準。我們會要求計算機在它自己的控制下執行一個定義不清的任務(比如開車到一家商店)。我們已經打造出了在路線規劃和駕駛上比大多數人類都做得更好的人工智慧系統。
谷歌的自動駕駛汽車負有責任的那次事故的原因是該演算法被修改得更像人類一樣駕駛,並由此帶來了人工智慧系統通常不會具備的風險。
自動駕駛汽車還有很多沒能解決的困難問題:比如在暴風雪的山路上行進。不管人工智慧系統是嵌入在汽車裡,還是無人飛行器或人形機器人裡,其所面臨的問題本質上是類似的:在安全、舒適的環境中執行是很容易的;而在高風險、危險的情形中則艱難得多。
人類也不擅長這些任務,儘管圖靈所期望的對話中人工智慧是迴避式的或甚至會錯誤地回答問題,但在高速路上駕駛時,模糊或不正確的方案卻是不能接受的。
可以執行物理行為的人工智慧迫使我們思考機器人的行為。應該用什麼樣的道德來規範自主機器人?阿西莫夫的機器人定律?如果我們認為機器人不應該殺死或傷害人類,武器化的無人機已經打破了這道界限。儘管典型的問題「如果事故不可避免,自動汽車應該撞向嬰兒還是老奶奶?」是虛假的道德,但這個問題也有一些更為嚴肅的版本。
為了避免會殺死其內部乘客的事故,自動駕駛汽車應該衝向人群嗎?抽象地回答這個問題很容易,但很難想象人類會願意購買會犧牲他們而不傷害旁觀者的汽車。我懷疑機器人將來能夠回答這個問題,但它也必然會在福特、通用、豐田和特斯拉的董事會上得到討論。
我們可以通過對話系統或自主機器人系統的複雜度分佈來更為簡單地定義人工智慧,並說人工智慧只是單純關於構建能回答問題和解決問題的系統。能夠回答問題和推理複雜邏輯的系統是我們已經開發了好些年的「專家系統」,其中大部分都嵌入在沃森中。(AlphaGo 解決的是不同型別的問題。)
但是,正如 Beau Cronin 指出的那樣,解決對人類來說存在智力挑戰的問題是相對簡單的;更困難的是解決對人類來說很簡單的問題。很少有三歲孩童能下圍棋。但所有的三歲孩童都能認出自己的父母——而不需要大量有標註的影象集。
我們所說的「智慧」嚴重依賴於我們想要該智慧所做的事,並不存在一個能夠滿足我們所有目標的單個定義。如果沒有良好定義的目標來說明我們想要實現的東西或讓我們衡量我們是否已經實現了它的標準,由範圍狹窄的人工智慧向通用人工智慧的轉變就不會是一件容易的事。
助手還是主角?
人工智慧的新聞報道聚焦於能夠自主行為的機器自主系統。這麼做有充足的理由:它有趣、性感、且有點令人害怕。在觀看人類輔助 AlphaGo 下棋的同時,很容易去幻想一個由機器主宰的未來。然而相較於自動化裝置,人工智慧有更多超過人類的東西。 真正的價值——人工智慧或者智慧增強——都在哪裡?人工智慧還是智慧增強?
這個問題自對於人工智慧的初次嘗試起就被問到,並由 John Markoff 在《Machines of Loving Grace》中深入探討過。
我們可能不想由一個人工智慧系統來做決定,而可能會想為自己保留決定權。我們或許想讓人工智慧通過提供資訊、預測任何行動過程的後果、提出建議來增強智慧,而把決定權留給人類。儘管有點《黑客帝國》的感覺,但這個被人工智慧所服務的增強我們的智慧而非推翻我們的未來會比服侍一匹脫繮的人工智慧有著更大可能性。
GPS 導航系統是一個人工智慧系統用來增強人類智慧的絕佳案例。給定一張適宜的地圖,大多數的人都能從 A 點導航到 B 點,儘管這對於自身能力還有很多要求,尤其是在我們不熟悉的領域。繪製兩個位置之間的最佳路線是一個棘手的問題,特別是當你考慮到糟糕的交通和路況時。
但是有了自動駕駛車輛的除外,我們從未把導航引擎連線到方向盤上。 GPS 是一種嚴格意義上的輔助技術:它給出了建議,而不是命令。當一個人已經作出忽略 GPS 建議的決定(或錯誤)時,你都會聽到 GPS 說「重新計算路線中」,那是它正在適應新情況。
在過去幾年中,我們已經看到許多各種意義上有資格作為人工智慧的應用程式。幾乎所有「機器學習」框架下的事物都有資格成為人工智慧:事實上「機器學習」是在人工智慧學科陷入聲名狼藉之時,被指稱回人工智慧更為成功的那部分。你不必一定要構建帶有人類聲音的人工智慧,像是亞馬遜的 Alexa,當然它的推薦引擎肯定是人工智慧。
類似 Stitchfix 的 web 應用也是人工智慧,它增加了由時尚專家們運用推薦引擎所做出的選擇。我們已經習慣了那些處理客戶服務電話的聊天機器人(並經常被它們氣壞)——準確度或高或低。你可能最後還是得和人類對話,而其中的祕密就是使用聊天機器人清理掉所有例行問題。讓某個人類去抄錄你的地址、保單號碼和其他標準資訊沒什麼意義:如果內容不是太多,計算機可以做得至少同樣準確無誤。
下一代助理將是(已經是)半自主性的。幾年前,Larry Page說《星際迷航》中的計算機是理想的搜尋引擎:它是一臺能夠理解人類、已消化所有可用資訊、能在被提問之前就給出答案的計算機。如果你現在正在使用谷歌,當它第一次告訴你由於交通堵塞要你早點出發赴約時,你可能會感到驚訝。
這就需要縱觀多個不同的資料集:你目前所在的位置、你的約會地點(可能在你的日曆或聯絡人列表中)、谷歌地圖資料、目前的交通狀況、甚至是有關預期交通模型的時間先後資料。它的目的不是回答某個問題;而是甚至在使用者意識到需求之前就提供幫助。
為何人們對人工智慧的興趣大增?
為什麼人工智慧在遭受「人工智慧的冬天」(AI winter)的幾十年聲名狼藉之後,會成為當下如此熱門的話題?當然,人工智慧的新聞也出現深藍之後,之後又有沃森的故事;但這些風潮都沒能持久。看到目前的人工智慧崛起為另一次風潮是很有誘惑力的。這能讓我們忽視過去十年的變化。
人工智慧的興起依賴於計算機硬體的巨大進步。列舉計算機效能和儲存技術自人工智慧之冬起(維基百科追溯到 1984 年)的 30 多年間的巨大進步是很乏味的。但這是此篇文章無法迴避的一部分,特別是如果你已經見過 IBM 的沃森機器支架。
據報道 AlphaGo 運行於 1920 個 CPU 和 280 個 GPU ;;擊敗了 Lee Sedol 的機器可能更加龐大,並且它使用了谷歌用於構建神經網路所開發的定製硬體。即使人工智慧演算法在普通筆記本上執行很慢,但在像 AWS、GCE 和 Azure 的雲平臺上配置一些重要的算力是容易且相對便宜的。機器學習得以實現,部分也是因為這種儲存大量資料的能力。1985 年時的千兆位元組(GB)還很罕見且重達數百磅;現在它已司空見慣,廉價而小巧。
除了儲存和處理資料的能力,我們現在還能生成資料。在上世紀 80 年代,大多影像都是模擬訊號。現在它們全是數字的,並有很多儲存於像是 Flickr、Google Photos、Apple Photos、Facebook 等的網路服務商那裡。許多線上照片已經被貼上了一些描述性的文字,這使得它們成為了訓練人工智慧系統的良好資料集。
我們的許多對話也都是線上的,通過 Facebook、Twitter 和許多聊天服務。我們的購物歷史也是一樣。所以我們(或者更準確的說是 谷歌、蘋果、雅虎、 Facebook、亞馬遜等)就有了訓練人工智慧系統所需的資料。
我們在演算法上也取得了顯著的進展。神經網路並不是特別的新,但是「深度學習」卻堆疊了一系列通過反饋來自我訓練的網路。因而深度學習試圖解決機器學習中最難的人類問題之一:從資料中學習最優表徵。處理大量資料很簡單,但是特徵學習就更像是一門藝術而非科學。深度學習是要實現那門藝術的部分自動化。
我們不僅取得了演算法上進展,更讓它得到了廣泛的使用,例如 Caffe、 TensorFlow、Theano、Scikit-Learn、 MXNet、 CNTK 等等。
人工智慧並不侷限於學術界的電腦科學研究者,而是像 Pete Warden 所展示的那樣,越來越多的人都能夠參與進來。你無需瞭解如何實現一個複雜的演算法並讓它在你的硬體上執行得多麼好。你只需要知道如何安裝庫並標註訓練資料就行了。
正如計算機革命本身所發生的那樣,計算機被搬出了機房並被廣大市民所使用,同樣的民主化程序正在製造一場人工智慧革命。來自許多背景和環境的人利用人工智慧做試驗,我們將會看到許多新型應用。有些會看起來像科幻小說(儘管自動駕駛汽車被看做科幻小說還只是幾年前的事);肯定會有我們甚至無法想象的新應用出現。
建立知識資料庫
世界充滿了「暗資料」:不存在於良好、有序的資料庫中的非結構化資訊。它在網站上、埋於表格裡、被珍藏在照片和電影中;但它不易被機器智慧或其他智慧所捕獲。
像 diffbot 和 deepdive 這樣的專案是利用半監督學習來找出非結構化資料中的結構——無論是大量的科學論文還是眾多網站的碎屑。一旦他們建立了一個數據庫,就能用更傳統的工具—— API、SQL 語句或者桌面應用程式——訪問該資料庫。
知識資料庫和圖表已被應用到許多智慧應用中,包括谷歌的知識圖譜(Knowledge Graph)。在我們走向聊天應用時,挖掘暗資料並找出其中結構的能力將變得更加重要。在聊天應用從指令碼化和目標狹隘型邁向為使用者返回任意問題的答案型的道路上,暗資料的有效利用將成為這一轉變的關鍵。
我們可能看不到這樣的應用程式被用於問題「理解」,而是會成為未來輔助技術的中心。它們將依靠已被機器分解並結構化的知識庫:其中包含的大量資料將超出人類的標記能力。
產生結果
不像人工智慧冬天的黑暗時期,那時資料有限、計算機很慢,現在我們到處都能看到成功的人工智慧系統。谷歌翻譯肯定不會像人類翻譯員那樣好,但是它經常能夠提供一個可用的翻譯結果。儘管語音識別系統還沒有達到隨處可見的程度,也也已經是司空見慣的了,且其準確度令人驚歎;一年前谷歌聲稱安卓手機可以正確無誤地理解 92% 的問題。如果一臺計算機能夠準確地將問題轉化為文字,那麼下一步就是把問題變成答案。
同樣,影象識別和影象處理也已經變得司空見慣。儘管存在一些被廣泛報道的尷尬錯誤,計算機視覺系統能夠以在幾年前還不可想象的精確度來識別人臉。
理所當然地,對此問題的適宜約束在其成功中起著巨大作用:Facebook 可以識別照片中的面孔,是因為它假定照片裡的人很可能是你的朋友。計算機視覺是(或將是)從尋常到可怕等各種層次的人工智慧應用的中心。視覺顯然是自動駕駛車輛的關鍵;它對於監控、自動鎖定無人機和其他不令人舒服的應用也同樣重要。
深度學習和神經網路在過去的一年裡已經吸引了大量的關注:它們已經實現了計算機視覺、自然語言和其他領域的進步。
然而幾乎所有打著機器學習旗號的都是人工智慧:分類與聚類演算法(classification and clustering algorithms)、各種決策樹(decision trees)、遺傳演算法(genetic algorithms)、支援向量機(support vector machines)、分層式即時記憶(HTM:hierarchical temporal memory)等等。
這些技術可以被自己使用,也可以與其他技術結合使用。IBM 的沃森是整合學習(ensemble learning)一個很好的例子:它是一個基於規則的系統,並依據所要解決的問題來結合使用其他演算法。這個規則在很大程度上是手工制定的,而其他演算法則需通過精心調整來獲得良好效果。
像 Watson 一樣令人印象深刻的、需要大量手動調整的系統是一塊通向智慧道路上的最好的踏腳石。任何的通用人工智慧和大多數的狹義人工智慧系統都將可能結合多種演算法,而不是使用單一的、尚未被發現的主演算法。
但這種用來得到良好結果的調整是一個主要的限制:AlphaGo 團隊負責人 Demis Hassabis 說這樣的調整「幾乎像是一種藝術形式。」如果取得好結果需要花幾年時間,並且只有一些專家(Hassabis 說有幾百人)有能力做這項工作,那麼它還是「人工智慧」嗎?
類似 Watson 這樣的引擎的創造過程是科學,然而也需要許多藝術。另外,手動優化的需求表明人工智慧系統的建立方式本質上是狹隘的,只能解決單一的問題。很難想象去優化一個能夠解決任何問題的「通用智慧」引擎。如果你正在做這件事,那麼幾乎可以肯定,那是一些特定應用。
人工智慧方面的進步取決於更好的演算法,還是更好的硬體?如果這個問題還算有意義,那麼答案就是「同時」。即使 GPU 進展的時間速率已經停止,我們把更多東西塞進一張晶片的力還沒有停滯:AlphaGo 的 280 個 GPU 能夠輕鬆平均 20 萬個核心。
更重要的是,我們已經看到了許多用於 GPU 的數學庫和工具方面的改進。我們可能還會看到 ASIC(application-specific integrated circuit )和 FPGA( field-programmable gate arrays)在未來的人工智慧引擎中的使用。反過來,ASIC 和 FPGA 將成為在許多需要硬實時狀態(hard real-time)執行的硬體系統(想想自動駕駛汽車)中嵌入人工智慧的關鍵。
但即使有了更好的硬體,我們仍然需要分佈於成千上萬個節點中的演算法;我們需要能夠飛速地重新程式設計 FPGA 的演算法,以適應待解決問題所使用的硬體。MapReduce 在資料分析中很流行是因為它提出了一個並行化一大類問題的方法。
並行顯然在人工智慧中起作用,但它的限制是什麼?並行的殘酷現實是,其不可被並行的部分能把你折磨死。而大多數並行演算法的標誌是,你需要一個用以收集部分結果併產生單一結果的階段。AlphaGo 在計算下一步棋時可能正在檢視成千上萬個選擇,但在某一點上,它需要瀏覽所有的選項,評估哪個是最好的,並給出一個單一結果。
AlphaGo 可以利用 280 個 GPU 的優勢;那麼一臺有 280,000 個 GPU 的計算機怎麼樣?畢竟,迄今為止我們所製造的最大計算機的計算能力只相當於一隻老鼠大腦的一小部分,更不要說與人類相比了。如果是不依賴於並行設計和神經網路的演算法呢?在一個路線中的每個元素都採取不同方法來解決問題的系統當中,你如何運用反饋?像這樣的問題有可能在不久的將來推動人工智慧的研究。
在人工智慧演算法中使用更多(更快)的硬體有可能使我們獲得更好的圍棋手、國際象棋手和 Jeopardy 玩家。我們將能更快更好地分類影象。不過這是我們目前可解決問題的一項改進而已。更多計算能力將會把我們從監督學習領到無監督學習嗎?它會把我們從狹義的智慧引到通用智慧中嗎?這還有待觀察。無監督學習是一個難題,而且我們並不清楚能否只通過使用更多硬體來解決它。我們仍然在尋找一個可能並不存在的「主演算法」。
人工智慧的未來發展前景:當前困境和未來可能
道德和未來
對超智慧的談論很容易把人嚇到。而且據一些人說,現在是時候決定我們想要機器做什麼了,趁現在還未為時已晚。儘管這種立場可能過於簡化了,但思考如何限制我們還未造出來的裝置是非常困難的;而且它們的能力我們現在還無法想象,可能未來永遠也無法理解。
拒絕人工智慧也是很困難的,因為沒有任何技術是在人類事先考慮周全之後才被髮明出來的。在歷史的不同時期人們害怕的許多技術現在已經司空見慣:在某個時候,很多人認為以超過每小時 60 英里的速度旅行是致命的。蘇格拉底反對書寫,因為他擔心這會導致健忘:想象一下他會如何看待我們今天的技術!
但我們可以思考人工智慧的未來,以及我們開發協助我們的人工智慧的方式。這裡給出了一些建議:大部分對超人工智慧的恐懼都不是在害怕我們已經知曉或理解的機器,他們害怕的是最糟糕的人性加上無限制的力量。我們無法想象一個思考著我們不能理解的想法的機器;我們想象那是不可戰勝的希特勒或斯大林——我們確實能理解他們的想法。我們的恐懼本質上是人類的恐懼:對像人類一樣行為的萬能機器的恐懼。
這並不是詆譭我們的恐懼,因為我們已經見到機器學習確實能向人類學習。微軟不幸的 Tay 是對話型人工智慧 Bot 從網路對話中「學會」種族主義和偏見的完美案例。谷歌的影象分類曾將黑人夫婦識別為「猩猩」,這個糟糕的測試結果的原因是訓練資料集中沒有足夠的合適標註的黑人圖片。
機器學習成為種族主義者的方式和人類差不多一樣:因為這是我們教它們那樣做的,不管是有意還是無意。這是一個人類問題,而且是一個可以解決的問題。我們可以在人工智慧學習的內容和方式上更加小心。
我們可以對我們的訓練集中的內容以及這些訓練集的標註方式更加謹慎,我們可以過濾我們認為可以接受的答案型別。這些沒什麼是特別困難的;但卻是必須要做的。更困難的是在目前的環境中讓人們達成共識:認為種族主義和仇恨是不好的。
這是人類價值觀的問題,而不是機器智慧的問題。我們會構建出反映了我們自身價值觀的機器:我們已經在那樣做了。它們是我們想要反映的價值嗎?
白宮對資料科學的報告《Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights(大風險、大機遇:大資料和民權的交集)》在總結章節中提到,我們需要研究稽核演算法的方法,以「確保人們被公平對待」。隨著我們從「大資料」走向人工智慧,對演算法的稽核以及確保它們反映我們所支援的價值觀的需求將只會增長。
將對人工智慧的深入研究開放給大眾,讓公眾可以見證到,這一點極其重要。這並非因為我們相信,大眾會對研究少些「恐懼」(這一點,或許是對的,也可能是錯的),也不是因為大眾多少會對超級智慧的觀念「習以為常」;而是因為較之公之於眾的研究,人們對閉門研究會投以更大的關注。
實際上,《不道德的研究( Unethical Research)》這篇論文建議,打造一個健康的人工智慧生態系統的最好方式就是將打造惡毒機器的想法公開。研究會繼續在背後進行,認為軍方研究和情報部門沒有致力於人工智慧的想法,很天真。但是,如果沒有公開狀態下進行人工智慧研究,我們就會受到軍方或者情報部門研究的支配。
(一個公司,比如谷歌或者 Facebook,是閉門研究抑或開誠佈公,是個值得討論的問題)這也就是 OpenAI 的宗旨:「以儘可能從整體上讓人類受益的方式推進數字化智慧的研究,不受需要財務收益的限制。」 OpenAI 是一個激動人心而且讓人吃驚的應答(針對人們對人工智慧恐懼):儘可能遠地推進這項研究,但是公開確保公共領域的研究領先於閉門研究。
對於研究來說,開放且公開也同樣重要,因為研究起源時常決定了研究的應用。核能就是個好例子。我們可以打造安全、高效的核反應堆。但是,我們從來沒有打造過釷反應堆,因為他們不會幫你製造炸彈,而且對核能的深入研究是由國防部門控制的。
核反應堆不是不會產生可用數量的鈽嗎?為什麼任何人都想要核反應堆?再一次,認為軍方和國家情報部門不會做出優秀的人工智慧研究,這種想法太天真。但是,如果人工智慧變成國家情報部門的專屬領域,那麼,就會有祕密竊聽和理解對話的優秀系統。
當思考人工智慧還能為我們做些什麼時,我們的想象力會受到限制,而且也很難想象人工智慧的應用到底會有哪些,除了殺人無人機、老大哥(Big Brother,典出喬治·奧威爾的名著《1984》)的耳目。我們或許永遠無法研發出智慧醫療系統和機器人護士助理。
如果我們想要讓人工智慧服務於人類,就必須公開進行研究:作為人工智慧研究人員這一更大社群的一部分,作為更為廣泛的公眾討論(討論目標和宗旨)的一部分。我們必須小心,不要打造出人類自己的最糟夢魘;但是,也許需要認識到,噩夢只不過是一個更強大的、真實的人類自身的版本。
總是在未來
扎克伯格最近說道,未來五到十年,人工智慧會比人類更善於做一些最基礎的任務。也許他是對的,但是,同樣清楚的是,他討論的是狹義人工智慧:從事特別任務,比如語音識別,影象分類以及遊戲。他繼續說,「那並不意味著計算機將會思考...」。
根據你的交談物件,一個真的通用智慧可能距離我們 10 到 50 年。考慮到預測科技未來的難度,最好的答案是「十多年以後」,而且可能更久。啥時候可以做出人類水平的機器智慧?一份最近的專家調查(Future Progress in Artificial Intelligence: A Survey of Expert Opinion)顯示,可能是 2040-2050 年左右(概率為50%)。正如 LeCun 所言,「人類水平的通用智慧距離我們幾十年。」
因此,如果真的可以,我們什麼時候會到達那裡?幾年前,Jason Huggins 對機器人的評價,可謂先見之明。機器人,他說,總是在未來。機器人片段一次又一次地中斷,成為現在的一部分;但是,當那發生時,它們不再被視為機器人。上世紀二十年代,我們就將一臺現代洗碗機視為一個超級智慧機器人;如今,不過是一個洗碗機。
這種情形也將不可避免地發生在人工智慧身上。實際上,已經發生了。我已經避免對機器智慧和人工智慧做出區分;「機器智慧」是一個術語:當人工智慧這個詞聲名狼藉時,這個術語被用於指代人工智慧研究中的一些想法。
如今,那些想法中的很多都變得很常見了。我們不會對亞馬遜的推薦系統或者 GPS 導航思慮再三 ,我們將之視為理所當然。我們或許發現 Facebook 和谷歌的影象標籤功能很詭異,但是,看到它時,你不會認為那是人工智慧。
所有嚴肅的象棋玩家會對陣象棋程式,圍棋菜鳥也是如此,而且在 AlphaGo 獲得成功後,對弈計算機也會延伸到專家層面。這些就是人工智慧,他們已經中斷併成為當今世界的一部分。這一過程中,人工智慧變化了形態,成為 IA(智慧增強):碾壓人類能力的自動化技術開始變得具有輔助性。
我們能否指著某件東西說,「是的,那就是人工智慧?」是的,當然可以,我們現在就可以這麼做了。更重要的是,我們將不可能避免地被人工智慧圍繞著,甚至在我們知道這些東西人工智慧之前。我們將管道、電力視為理所當然之物,我們的孩子將流媒體音樂視為理所當然。我們也會視人工智慧為理所當然,當它們在生活中越來越普遍時。
你是否開始邁向這塊的路程了呢
對於大多是喜歡研發技術方向的,我在透露一些,關於人工智慧的,可以向著python人工智慧程式語言出發,想要了解更核心的,就來挑戰python,人生短暫,要不斷的接收新知識,好了本章就到這了,喜歡更多的關注我的公眾號:Winner_YJ(小白也可以成為高手)!