IBM Think 2019核心議題:如何打造可信人工智能
在2019年2月12日到15日於美國舊金山舉辦的IBM Think 2019大會上,可信人工智能成為核心議題之一。IBM董事長、總裁和首席執行官Ginni Rometty的主旨演講中也重點提到了可信人工智能,Rometty還把對技術的信任作為她整個主題演講的落腳點,她認為信任是所有偉大技術的先決條件,是新技術繁榮和發展的基礎,也是這個時代最大的不同之處。
兩個月前,歐盟剛於2018年12月18日公布了《可信AI的道德指南草案》,並將於2019年3月推出最終版本。《指南草案》指出人工智能AI是當代最重要的轉型力量之一,也註定將改變社會的組成。但要正確的發展人工智能,就必須要提出可信賴的人工智能,“可信賴的人工智能是‘北極星’”。人工智能的未來在於信任,如果想要驅動業務成功,人工智能就不能隱藏在“黑盒子”中。
2018年底,IBM研究院發布2019預測:2019年,值得信賴的人工智能將成為焦點。在IBM Think 2019上,IBM研究院專場介紹了在推進人工智能、擴展人工智能和構建可信人工智能方面的工作,並提出了“AI就是新IT”的觀點。實際上隨著人工智能全面嵌入信息基礎架構,人工智能與信息基礎架構之間的界線已經越來越模糊。打造可信人工智能,就是構建可信的信息基礎架構,進而為未來的數字經濟打下堅實的基礎。
激活人工智能的網絡效應
MIT數字經濟研究計劃(MIT INITIATIVE ON THE DIGITAL ECONOMY,MIT IDE)是MIT Sloan管理學院發起的研究項目,旨在研究如何在數字經濟時代發展繁榮。MIT教授MICHAEL SCHRAGE在2016年發起了一個IDE研究方向:網絡效應,即亞馬遜、阿裏、Google、Apple、Facebook、Uber、Airbnb等平臺的真正成功之道。今天,AI就是下一個平臺。
什麽是“網絡效應”?簡單理解:用戶的參與越多,就能迅速產生更高的價值和有價值的體驗;創造的價值越多,就會產生更多的用戶以及創新的用途。對於AI來說,“網絡效應”更加明顯。AI與谷歌搜索一樣,使用的人越多其性能就越好。但相對谷歌搜索來說,AI面臨的一大問題就是可信任性。由於今天的人工智能更多是以開源軟件的形式為各企業、政府和組織機構所使用,而人工智能算法本身也是“黑盒子”,因此要引發AI的“網絡效應”還欠缺信任機制。
Google、Facebook、Amazon、IBM以及Microsoft在2016年發起成立了Partnership on AI。作為一家非贏利性組織,Partnership on AI旨在匯集全球不同的聲音,以保障AI在未來能夠安全、透明、合理地發展,讓世界更好地理解AI的影響。截止2018年底,Partnership on AI共有來自13個國家的80余家成員,除創始成員外還包括蘋果、Intel、埃森哲、nvidia、三星、百度等巨頭以及超過50家非贏利性組織成員。
作為Partnership on AI的創始成員之一,IBM長期以來一直關註人工智能的安全、透明、可信賴以及合理發展。通過積極的呼籲以及促進各方對話,IBM研究院對2019年的人工智能預測之一為:2018年,許多組織通過建立道德咨詢委員會來應對數據泄露和消費者隱私問題,增加了對“信任支柱”(算法公平性、可解釋性、穩健性、透明度)的研究投入,以及為社會福利部署AI做出了更多的努力;在2019年,將看到這些努力會成為公司如何構建、訓練和部署AI技術的核心。
構建可信的人工智能
IBM特別註重將對AI的信任研究轉化為實際產品和平臺,同時強調鼓勵技術團隊的多樣性和包容性,以確保充分的聲音和觀點指導技術進步。
當前,對於AI可能存在的安全、透明、偏見等普遍性問題,很容易造成人們對於AI的不信任。IBM認為,這在很大程度上是因為所創建和被開發出來的AI服務,缺乏相應的開發說明。因為基於深度神經網絡的AI算法,其算法本身是一個“黑盒子”,難以用數學的方式說明算法到底是怎麽來的、如何運行的以及結果能否確定等,因此IBM研究院提出了Factsheets for AI services(AI服務的說明)。
就像營養藥的藥品說明一樣,AI服務的說明文檔十分重要,但也需要遵循一定的文檔規格,例如需要說明AI服務的算法是如何創建、測試、訓練、部署和評估的。IBM認為,對於AI服務說明文檔的標準化和及時發布,有助於業界建立對於AI服務的信任。IBM研究院向2019年ACM美國計算機協會FAT*專業會議(專註於算法的公平、可靠和透明主題)提交了論文,論述了AI供應商應該如何提供一致性說明來增強對AI服務的信任,並提供了初步的建議,包括系統運行、訓練數據、底層算法、部署測試和結果、性能指標、公平和可靠性檢查、目標用例、維護及再訓練等內容。
IBM認為一個可信任的AI系統,需要遵循幾個基礎原則:公平性(Fairness),即AI系統應該采用不帶偏見的數據集和模型,從而避免對於特定群體的不公平;健壯性(Robustness),即AI系統應該安全和可靠,不會被篡改,也不會受被“汙染”的訓練數據集影響;可解釋性(Explainability),即AI系統所提供的決策或建議,應該能夠被用戶和開發者所理解;可追蹤(Lineage),即AI系統的開發、部署、維護等可被追蹤,能夠在生命周期範圍內被審計。
除了提出“AI服務說明”文檔的基礎原則、初始規格及內容建議外,IBM認為後續值得的研究包括如何把“AI服務說明文檔”自動化的嵌入AI軟件的構建、開發和運行環境中,這樣就不需要人工撰寫這些說明文檔了。此外,“AI服務說明文檔”還可自動化的發布到基於區塊鏈的網絡上,這樣“AI服務說明文檔”就不可被篡改。
當然,IBM在可信任的AI系統方面,還進行了很多研究,其基本的思想就是通過算法和軟件,自動化的在AI系統裏構建“信任”。例如,IBM在2018年9月發布了AI Fairness 360(AIF360)開源工具,專門用於檢查數據集、機器學習模型、最新的算法等是否具有偏見。初步發布的AIF360 Python包帶有9種算法,由算法公平×××社區所開發,用以減輕算法中的偏見。
因果建模讓人工智能更加深刻
目前基於深度神經網絡算法的AI系統,其原理主要是相關性。也就是訓練出一個神經元模型,可以模擬一個數據集的軌跡,這在很大程度上是建立了兩個系統之間的相關性。通常這種算法在處理較為確定的問題時比較容易成功。例如模擬和預測圖像、語言、語音等,因為圖像、語言和語音相對固定,比如一種語言往往只有幾種到幾十種發音、幾千到幾萬詞匯等。
但是在現實的商業應用中,人們期望用AI算法解決更多的開放性問題,就像人腦可以處理很多未知或缺乏經驗的問題,因此人們也期望建立更加通用的人工智能系統。這個時候,就需要引入人腦所具備的歸納推理能力,也就是建立數據集之間的因果關系,而不僅僅是相關性。在IBM研究院的2019 AI預測中提到:對現實世界中因果結構的直覺,是人們日常行為和判斷不可或缺的,但今天大部分人工智能方法基本上都缺乏對因果關系的深刻應用。
因果推理方法,使AI開發者能夠從數據中推斷出因果結構,有效地選擇幹預措施來檢驗推定的因果關系,並通過利用因果結構的知識做出更好的決策。在2019年,IBM期望因果建模技術成為人工智能世界的核心技術。
因果建模技術(Casual Inference)是歸納推理算法(Inductive reasoning)的一個部分,在過去20年得到了迅速的發展。歸納推理算法是研究如何從局部推理到全局、從過去推理到未來、從特例推理到常規、從可被觀察現象推理到未被觀察現象等。例如,從聽到彈鋼琴音樂的聲音,推理出有人在彈奏彈琴。因果建模技術因其具有歸納推理的能力,是醫藥、流行病學和公共健康等領域AI系統的核心目標。
今天,因果建模技術能夠解決當前機器學習和AI系統的很多問題,包括機器學習模型的解釋、機器學習過程/模型的公平性、基於數據的決策等。針對AI系統的解釋、公平、決策理解等,因果建模技術對AI系統能夠進行很好的補充。
如今,IBM正在創造下一波基礎人工智能技術,從今天的“窄”AI步入“寬”AI的新時代。“寬”AI的特點是能夠更廣泛地學習和推理,整合不同模式、不同領域的信息,同時更具有可解釋性、安全性、公平性、可審計性和可擴展性。未來,在“寬”AI的基礎上還將走向通用AI。此外,IBM研究院還AI領域進行了大量前瞻×××工作,包括對量子計算的研究以及把量子計算應用於處理AI計算任務等。
作為2019年開年的全球科技創新盛會,IBM Think 2019無疑為整個2019年奠定了基調。而可信人工智能作為IBM Think 2019的核心議題之一,也無疑將成為整個2019年科技創新領域的核心議題。而IBM研究院在可信人工智能方面所進行的大量基礎研究和前瞻研究工作,將推動全球對於可信人工智能的關註和行動,切實把可信人工智能落地,並應用到更為廣泛的場景中。(文/寧川)
IBM Think 2019核心議題:如何打造可信人工智能