1. 程式人生 > 資訊 >機器人會夢見電子羊嗎:谷歌 AI 員工離職事件,能看出哪些 AI 倫理問題

機器人會夢見電子羊嗎:谷歌 AI 員工離職事件,能看出哪些 AI 倫理問題

2 月 20 日,谷歌 Ethical AI(AI 倫理)團隊的創始人 Mitchell 在推特上發了一條簡短的宣告:“I am fired”,這與去年另一位女性研究員 Timnit Gebru 的遭遇如出一轍,而這兩位女性正是谷歌 Ethical AI 部門曾經的兩位聯合負責人。

去年年底,Gebru 發推表示自己被公司開除,她因一篇論文的發表與公司上層產生矛盾,被要求撤稿後,她在一篇內部郵件中表示了自己對公司種族偏見問題的不滿,隨後被解僱。

在從外界角度來看,似乎很難不將 Mitchell 的解僱和 Gebru 事件聯絡起來。

推特上的脣槍舌戰

這位 Gebru 是谷歌 AI 倫理部門的聯合負責人,也是谷歌內部極少數的黑人女研究員(根據該公司 2020 年年度多樣性報告,谷歌員工中有 3.7%是黑人),同時她也是 Black In AI 的聯合創始人,致力於黑人在演算法領域的平權。

而谷歌方,Gebru 的上司 Jeff Dean 站出來表示“論文未達到發表標準,是女方主動拿辭職要挾”。雙方各有說法,在推特上來來回回脣槍舌戰。

事件發生後,AI 界大多都站在了 Gebru 這一邊。據 BBC 報道,超過 4500 名來自微軟、谷歌等大公司的科研人員在支援 Gebru 的公開信上籤了名,要求谷歌方進一步解釋開除 Gebru 的原因。

公司 CEO Pichai 率先出來滅火,承諾將會進行進一步調查,以期能為這場轟轟烈烈的鬧劇劃上一個句號。今年 2 月,Dean 也向解僱 Gebru 和對其他女性員工造成的傷害致歉,谷歌還宣佈了新的多元化政策,包括將 DEI(多元、公正、包容)目標與副總裁以上級別員工的績效評估掛鉤。這似乎是進一步的滅火行為,但隨後 Mitchell 就被解僱。

如今被開除的 Mitchell 也是一位 AI 道德專家,曾從事機器偏見,種族和性別多樣性以及用於影象捕獲的語言模型方面的工,她與 Gebru 共同領導該公司的道德 AI 團隊。同時值得注意的是,她也是那篇導火線論文的共同創作者。

Gebru 被炒魷魚後,Mitchell 多次在公共平臺表示對谷歌的不滿。今年 1 月份,她被限制了公司內部電子郵件訪問許可權,就在被開除的幾小時前,Mitchell 還在推特上抨擊谷歌“一向疏遠黑人女性”。

谷歌方對於開除 Mitchell 給出的迴應是“在對這位經理的行為進行審查之後,我們確認存在多次違反我們的行為守則和安全政策的行為,其中包括洩露機密的業務敏感檔案和其他員工的私人資料。”

演算法偏見

回到導致 Gebru 和 Mitchell 均被解僱的最初,引起爭議的論文《隨機鸚鵡之險:語言模型會太大嗎?(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?)》,它從環保和成本角度、種族和性別方面探討了大型語言模型(如 BERT)帶來的高耗電等風險。同時 Gebru 指出如果不加區分地使用現有資料訓練人工智慧,會進一步加深 AI 語言模型中對少數邊緣群體的偏見。

該論文的引言中寫道:「我們問是否已對與開發這些風險相關的潛在風險以及減輕這些風險的策略進行了足夠的思考。」

谷歌 AI 在 2017 年首先發明瞭 Transformer 語言模型,2018 年,在此基礎上推出的 BERT 語言模型在人工智慧領域引起轟動,同時也廣泛運用到谷歌搜尋引擎的訓練上,已經成為谷歌經濟收入的重要來源。

這篇論文是對谷歌目前最有利可圖的 AI 研究提出的擔憂,而這種擔憂並不是空穴來風,AI 中涉及的倫理偏見已經不是第一次出現。

2015 年,谷歌相簿將兩個深膚色的人標記為「大猩猩」,谷歌公司當時保證「立即採取措施」,以防止再犯重複錯誤。不過隨後為了解決這一問題,谷歌直接從搜尋結果中刪除了這一詞條的標籤。《連線》雜誌在谷歌相簿上測試了 4 萬多張動物圖片,最終得出了這樣一個結論:谷歌不再將任何圖片標記為大猩猩、黑猩猩、猴子,即使就是這種動物的圖片也是如此。

在今年的疫情期間,谷歌 AI 也出現了類似情況。

經非盈利研究和倡導組織 AIgorithmWatch 證實,谷歌旗下計算機服務 Google Vision Cloud 會將手持測溫計的深膚色人員影象標記為“槍”,而相同條件下,淺膚色人員影象則被標記為“電子裝置”。究其原因,這與深膚色的人員影象在資料訓練時在暴力場景出現的高頻率有關,隨後谷歌致歉並更新了演算法,測溫計影象中不再出現“槍支”標記。這種對於有色人種在資料訓練中的忽視,已經成為 AI 偏見常出現的情況。

衝突中心的谷歌

AI 倫理問題產生的根源,是人類社會中存在著相同的偏見。

一直以來,矽谷科技公司向外界展示著它開放、平等的文化。早在 2014 年,矽谷的 33 家科技公司就共同簽訂了多元化承諾。然而除演算法偏見,近幾年,微軟、亞馬遜、Uber 等公司卻頻頻爆出關於性別歧視、膚色偏見的道德醜聞,曾經的全球最佳僱主谷歌也難逃其中。

2018 年,據《紐約時報》報道,谷歌向因性騷擾傳聞離職的“安卓之父”Andy Rubin 支付了約 9000 萬美元,並在過去 10 年中保護了包括魯賓在內的三位被指控性行為不端的男性高管。

這引發了谷歌員工的強烈抗議,全球 20 多個辦事處的 20000 多名員工進行了歷史性的集體大罷工,走上街頭喊出“我們要透明度、追責和架構調整”的口號。隨後谷歌致歉,並承諾將會撤銷針對性不端行為的強制仲裁。

雖然近年來谷歌內部不斷出現各種 AI 相關的倫理討論事件,外界持續不斷地批評谷歌在這些方面做得不夠好。但從另一個角度看,在 AI 行業在全球快速發展的當下,也只有谷歌內部爆出瞭如此大範圍的嚴肅討論,這恰恰是從谷歌一直以來自由管理、直言不諱的文化中誕生的。

在 Gebru 離職風波後,不只是 Ethical AI 團隊,整個谷歌公司的氛圍都持續緊張。

在今年,經過多撥討伐的 Dean 向 Gebru 事件致歉,並且任命了另一位黑人女性 Mariian Croak 為 Ethical AI 的主管,繼續向他彙報工作。Ethical AI 成立的初衷就是為了監控谷歌 AI 的道德走向,為此,這個部門也是公司中多元化程度最高的一個部門,將那些在演算法中那些最有可能受到偏見傷害的弱勢群體聚集到一起。

對於一個充滿黑箱和未知的技術,AI 值得人們探討的問題還有很多。谷歌是第一家爆發激烈討論的公司,但它絕不會是最後一家。