1. 程式人生 > >谷歌AI主管:個人反對使用機器學習來實現自主武器研發

谷歌AI主管:個人反對使用機器學習來實現自主武器研發

640?wx_fmt=gif&wxfrom=5&wx_lazy=1

本文由人工智慧觀察編譯

譯者:Sandy

一個月前,谷歌進行了重組,大神Jeff Dean成了新晉掌門人。最近,谷歌還將其研究部門重新命名為Google AI。

本週二,谷歌在其開發者大會上又推出了很多新的特性以及更新,包括為手機開發者提供的ML Kit、TPU 3.0以及升級版谷歌助手。對此,Jeff Dean分享了自己對AI未來的看法。他看到了人工智慧創造新產品的機會,並找到了人類之前從未想過的問題解決方案。

通用智慧AI的出現

如今,大部分人工智慧都是為了完成一個單一任務,比如講句子從一種語言翻譯成另一種語言,但Dean表示他希望谷歌可以建立更多的AI模型,以完成多個任務並實現一種“關於世界的常識的推理”。

他說:“未來,你會看到我們更多地轉向可以做很多工的模型,然後在此基礎上總結經驗,這樣當我們想要訓練一個模型去做其他事情時,就可以建立在現有技能和專業知識之上。”

比如,如果機器人被要求撿東西東西,它會理解手部的動作,重力如何工作以及對世界的其他理解。“我認為這將是未來幾年的一個重要趨勢。”

AutoML的偏見和不透明的挑戰

根據不同的問題物件,AutoML,谷歌的人工智慧可以創建出其他的AI模型,要麼令人興奮,要麼令人恐懼。

訓練機器的機器肯定會讓反對人工智慧的人感到恐懼。但谷歌雲首席科學家李飛飛說,AutoML降低了高階開發人員甚至是普通人建立定製AI模型的難度。

對Dean來說這是令人興奮的,因為它可以幫助谷歌“自動解決問題”,但AutoML的使用也帶來了獨特的問題。

640?wx_fmt=png

“由於我們使用的是比傳統手工編碼軟體更多的系統,這給我們帶來了很多挑戰,我們正在處理這些問題,”他說。“所以,如果用於訓練的資料中存在偏見問題,那麼學習的機器學習模型本身會使這些偏見繼續延續下去。由此,我們要做的工作有很多,比如,如何培訓沒有偏見形式的機器學習模型。”

另一個挑戰:如何使用AutoML正確地設計安全關鍵系統,為醫療保健等行業建立AI。數十年的電腦科學已經建立了最佳實踐,以便對這些系統進行手工編碼,而機器製造機器也需要這樣做。

Dean表示,在對狗進行分類時犯錯是一回事,在安全關鍵系統中出錯又是另一回事。“我認為這對我們來說是一個非常有意義且重要的應用方向,特別是當我們開始在更安全的關鍵系統中進行機器學習時,這些都會對醫療保健或自動駕駛汽車等專案產生影響。”

安全關鍵型AI需要更多的透明度

週二,谷歌研究人員發表的一篇文章,解釋了AI為什麼對患者做出某些決定,醫生能夠看到醫療記錄建議背後的原理。未來,Dean希望開發一個可以與醫生進行簡單互動的AI模型,通過提問,可以得到答案。

Dean表示,現在人工智慧在谷歌產品中的實行會經歷一個內部審查過程。而且,谷歌也在制定一套評估AI模型中是否存在偏見的指導方針。

“使用者所希望的,本質上與安全審查或產品新功能的隱私審查一樣,我們也希望ML公平審查是將機器學習整合到我們產品中的一部分。”

拒絕AI武器裝備

對於AI武器而言,Dean表示他不認為谷歌應該從事製造自主武器的生意。今年3月,有訊息傳出谷歌正在與美國國防部合作,改進對無人機收集到的鏡頭的分析。

“隨著社會開始發展更強大的技術,機器學習和人工智慧會遇到許多道德和倫理問題,”他說。“我個人已經簽署了一封信,大約六個或者九個月以前的一封公開信,不記得具體時間,但已明確表示我反對使用機器學習來實現自主武器。我想大多數人都會對此感到不安。”

據紐約時報的報道,數千名谷歌員工已經簽署了一封信函,稱谷歌應該遠離“戰爭技術”的建立,因為這可能對谷歌的品牌及公司與公眾之間的信任造成不可挽回的損失。但是,Dean沒有具體說明自己是否也簽署了該信函。

AI驅動新產品和新專案

現在人工智慧的水平已經超越了模仿人類的活動,他們正在幫助谷歌開發新產品以及新服務。

Dean表示,“通過對這些模型進行大量資料培訓,我們實際上可以建立一些系統,讓他們做我們無法完成的事情,這是一個基本的進步。我們現在正在開發經過人工智慧驗證的全新產品,而不是用AI來做我們想做的任何事情,只是相當於一個培訓系統。”

640?wx_fmt=png

投稿、約訪、合作,聯絡郵箱[email protected]

新增微信aixiaozhijun,更多交流或進AI觀察團

640?wx_fmt=gif

相關推薦

AI主管個人反對使用機器學習實現自主武器研發

本文由人工智慧觀察編譯譯者:Sandy一個月前,谷歌進行了重組,大神Jeff Dean成了新晉掌

AI論文BERT雙向編碼器表徵模型機器閱讀理解NLP基準11種最優(公號回覆“BERT論文”下載彩標PDF論文)

谷歌AI論文BERT雙向編碼器表徵模型:機器閱讀理解NLP基準11種最優(公號回覆“谷歌BERT論文”下載彩標PDF論文) 原創: 秦隴紀 資料簡化DataSimp 今天 資料簡化DataSimp導讀:谷歌AI語言組論文《BERT:語言理解的深度雙向變換器預訓練》,介紹一種新的語言表

搞事情最先被AI淘汰的,居然是做AI的?

收藏 編程 個人開發 專家團 只需要 一起 傳說 行業 sage 坊間流傳著這麽一個說法:谷歌想回中國,必須靠AI;而靠AI回中國,必須搞個大事情。於是,上周四的晚上李飛飛發布了一篇博客,然後連著發了三條推特,宣布一個叫AutoML的AI產品啟動了。一夜之間,中國的科技媒體

說明最新"AI智商不超過6歲"研究來自中國科學院而非美國康內爾大學

最近cnBeta等多家網站報道: “據HotHardware報道稱,來自美國康奈爾大學一組研究人員對各大科技公司的人工智慧型語音助手進行了橫向比較。研究人員發現,谷歌助手擁有目前語音助手類中最高的平均智商,IQ值約為47.28,水準接近於人類六歲兒童。而蘋果的Siri語音助手的平均智商則較低,約為23

技術主管親述程式設計師請避開這幾大雷區

全文共1827字,預計學習時長4分鐘 圖片來源:Unsplash/攝影NESA by Makers 軟體工程師的技能發展都

CEO發文安卓系統或許要收費了!

還在 you 應用 視覺 目標 art 去年 tex 相機 因谷歌Android壟斷一案,歐盟委員會今日正式宣布,對谷歌處以43.4億歐元(約合50.4億美元)的罰款。對此,谷歌CEO桑達爾·皮查伊(Sundar Pichai)發表文章,警告稱由於歐盟的決定,Android

官宣全面超越人類的最強NLP預訓練模型BERT開源了!

來源 | Google Research GitHub 編譯 | 無明、Natalie 編輯 | Natalie AI 前線導讀: 近日,谷歌 AI 的一篇 NLP 論文引起了社群極大的關注與討論,被認為是 NLP 領域的極大突破。谷歌大腦研究科學家 Thang Luong Twitter 表示,這項

確認,AI中國中心總裁李佳離職

剛剛,AI科技大本營向谷歌中國求證,確認谷歌 AI 中國中心總裁李佳已經離職。 李佳本科畢業與中國科學技術大學,2011年獲得斯坦福大學博士學位,是李飛飛的愛徒之一。 2016 年 11 月,李佳從 Snapchat 離職,與李飛飛一同加入谷歌,共同領導谷歌雲的機器學習部門。

2.5星|《後時代》鼓吹區塊鏈比特幣必將戰勝,旁徵博引難掩邏輯與證據的不足

後谷歌時代:大資料的沒落與區塊鏈經濟的崛起 (世界著名未來學家、經濟學家、“數字時代的三大思想家之一”喬治·吉爾德最新作品,一部關於科技與經濟的未來簡史!) 英文版也是2018年出的,算比較新的書。作者在書中兩次提到他今年78歲了。 旁徵博引型,看開頭幾章完全想不到作者是要鼓吹區塊鏈和比特幣,以為是在

首席科學家搞研究的痛苦,搞工程的人不懂

https://blog.csdn.net/cf2SudS8x8F0v/article/details/84680206   來源:量子位 作者:Vincent Vanhoucke   谷歌首席科學家、谷歌大腦技術負責人Vincent Vanhoucke(萬努

舉兩個栗子如何正確建立個人機器學習專案集

選自Towards Data Science,作者:Edouard Harris,機器之心編譯。 面試機器學習方面的工作時,在簡歷的個人專案那塊,你會寫什麼?建模?做機器學習專案?專案資料從哪兒來?在 SharpestMinds 創始人 Edouard Harris 介紹的兩個成功例子中,人家是從基

AI的七個“不正經”玩法,個個能玩一整天

郭一璞 問耕 發自 凹非寺 量子位 報道 | 公眾號 QbitAI誰說AI只能搞一些一本正經的工

126_cs江湖3_雙核佩奇和布林

Google兩個核心人物,Google聯合創始人拉里·佩奇(Larry Page)和塞吉·布林(Sergey Brin),如果說蘋果的兩個史蒂夫,是產品與技術的完美結合,那谷歌的雙核,則屬於技術上的惺惺相惜,夢想上的一路前行。 拉里·佩奇和謝爾蓋·布林這兩個斯坦福大學輟學學生創造了網路上最具數學

李飛飛在開發者大會宣佈AI中國中心正式成立

在今天上海開幕的谷歌開發者大會上,谷歌雲人工智慧與機器學習首席科學家李飛飛宣佈谷歌 AI 中國中心正式成立,該中心由李飛飛和 Google Cloud 研發負責人李佳博士共同領導。李飛飛將會負責中心的研究工作,也會統籌 Google Cloud AI、Google B

AI中國中心正式成立!他們還要招這些人……

在今天上午的谷歌開發者大會上,Google Cloud人工智慧和機器學習團隊的首席科學家李飛飛宣

deeplearning.ai第三課結構化機器學習專案

1 正交化 正交化的含義是在設計系統時,應該使得系統一個元件/引數的變化對另一個元件/引數的影響儘可能小。這樣就可以相對簡單的實驗系統的各個組成部分,可以減小系統的驗證和測試時間。 開發一個有監督機器學習系統時,應該依次序完成四件事情: 訓練集要對代價函式擬合的很好,

記2017上海開發者大會第一天

前言 今年受到朋友推薦申請了谷歌開發者大會的資格並完成了稽核,在學校請了兩天假去一睹谷歌開發者大會~不得不說谷歌真是大方,到場所有人人手一個Android things開發板和電腦包,還有各種數不清的限量版T恤以及玩偶,只要參與活動基本都能獲得。下面我就把第一

面試題1024! 末尾有多少個0?

解答思路: 末尾0的個數取決於乘法中因子2和5的個數。顯然乘法中因子2的個數大於5的個數,所以我們只需統計因子5的個數。  是5的倍數的數有: 1024 / 5 = 204個  是25的倍數的數有:1024 / 25 = 40個  是125的倍數的數有:1024 / 125 = 8個  是625的倍數的

AI版“你畫我猜”背後是什麼樣的原理?

我們先看看這個小程式是什麼,開啟微信小程式搜尋頁面,搜尋“猜畫小歌”,開啟這個小程式,點選開始作

百年老圖難倒AI,兔還是鴨?這是個問題

strong ima 判斷 -c 眼睛 probe 技術 一個 結果 上面這張圖,畫的是鴨子還是兔子? 自從1892年首次出現在一本德國雜誌上之後,這張圖就一直持續引發爭議。有些人只能看到一只兔子,有些人只能看到一只鴨子,有些人兩個都能看出來。 心理學