索尼 AI CEO:我們要讓 AI 在 30 年內拿到諾貝爾獎
“到 2050 年,要讓 AI 憑自己的科研成果拿下諾貝爾獎!”
索尼電腦科學實驗室執行長北野弘明博士,為了開發匹敵頂尖科學家頭腦的 AI,提出了諾貝爾圖靈挑戰計劃。
這是一次人工智慧與自然科學領域的夢幻聯動。
人類的力量太有限了,那就創造出 AI 來替人類實現無限可能。
“當 AI 強大到能處理複雜現象時,就有機會探索人類科學家當下無法理解的事物。”
他們計劃,將 AI 的算力優勢應用於無窮的科學發現中,利用強大的資訊處理能力,幫助人類進行科學發現,找到新的研究突破。
AI 的優勢在哪?
和人類相比,人工智慧擁有的算力,可以實現對多領域、龐大資訊量的快速處理,這遠遠超出人類對資訊的處理能力。
而人類科學家常常會侷限在個體的知識範圍內,所以在科學探索中,存在一定的劣勢。
科學探索就是不斷試錯的過程,一些突破性的重大發現,往往來源於“失誤”。
比如導電聚合物聚乙炔薄膜,它誕生於一次實驗失誤,合成過程中錯誤地使用了比正常濃度高一千倍的催化劑。
人類科學家不會去做這種超出常理的實驗,而這樣的設計卻可能被 AI 實現。
看似關係不大的領域,背後的聯絡卻可以藉助 AI 來抽絲剝繭,擴充套件更豐富的科學假設。
對這些假設的驗證篩選,同樣離不開機器學習訓練。
基於 AI 科學家的已有發現不斷探索假設空間,生成詳細的證明或論據,以評估新生成假設的有效性和重要性。在這樣的假設驗證過程中,AI 不斷進行著自我強化學習。
比如已經被成功應用到實際場景中的 AI 工具 Adam-Eve,就在酵母基因組學和藥物開發領域發揮了重要作用。
Adam 成功預測了酵母菌新功能,找到了芽殖酵母中的孤兒酶;Eve 則發現了三氯生成分可以靶向抑制 DHFR 酶來治療瘧疾。
科學家 AI 的發展
當然,現在 AI 科學家最受質疑的,就是其本身的“黑盒”特性。
為了讓科學 AI 系統建立並維持可信度,就要避免黑盒效應,消除資料偏見。
“要讓 AI 做出的科學發現被科學界接受,就必須擁有令人信服的證據,和背後邏輯清晰的推理。”
類似 Adam-Eve 這類閉環實驗室自動化系統,AI 能夠在人類具體的指令中,完成複雜的實驗,以高效的機器處理取代人類低效的實驗步驟。
例如,藉助 AlphaFold 預測蛋白質結構,僅僅一週時間就預測出了 98.5% 的人類蛋白質。大大加速了蛋白質組學的研究程序。
而利物浦大學的“移動化學家”,則具備了自主發現高活性催化劑的能力。
北野弘明對 AI 科學家未來的發展方向做出大膽假設。隨著系統自主性的提高,人類的指令將變得抽象,AI 科學家對要測試的假設以及要執行實驗的優先順序獨立決策。
理想中的 AI 科學系統,是一個結合了軟體工具、資料訪問和嵌入閉環實驗體系的多重多智慧體系統,具有高度互動性、互用性和可擴充套件性。
構成它的多個 AI 系統專注於各自領域,能夠更廣泛地探索假設空間,將獨立領域互相結合起來。
關於 AI 科學家,另一個引起社會關注的話題,就是倫理問題。
整個發展階段中,AI 可以一直作為工具被人類應用。但是隨著 AI 自治程度的不斷提高,人類更多地充當起監督者的角色,以防止系統被濫用。當然也可以允許 AI 高度自治,以產生更有突破性的科學假設。
AI 參與到科學研究領域中,對於科研成果的歸屬界定,同樣也是需要嚴肅對待的社會問題。
DABUS“人工神經系統”的開發者曾為其申請專利權,歐英美專利機構均以“不是自然人”為由駁回申請。然而近期澳大利亞法院開創先例,做出裁決,承認了 DABUS 系統的專利發明人身份。
隨著人工智慧的不斷髮展,相應的社會規則也應當逐步完善,為 AI 科學家提供適宜的社會環境。不過,在對人類做出極大貢獻的科學研究面前,發明者是人類或是 AI,似乎都不是十分重要的事了。