1. 程式人生 > 資訊 >Facebook 吹哨人亮明身份:他們犧牲社會利益賺取利潤

Facebook 吹哨人亮明身份:他們犧牲社會利益賺取利潤

北京時間 10 月 5 日下午訊息,據報道,一名向美國執法部門舉報 Facebook 的前僱員日前接受 CBS《60 分鐘》欄目採訪時表示,她在 Facebook 目睹了“公眾利益和 Facebook 利益之間的衝突”

她叫弗朗西斯・豪根(Frances Haugen)。事實上自從上個月遭到前員工的匿名舉報以來,Facebook 一直都想知道這名神祕舉報人的身份。

舉報信顯示,Facebook 的內部研究表明,這個全球頭號社交網路對仇恨心理、錯誤資訊和政治動盪都起到了推波助瀾的作用 —— 但他們卻對此祕而不宣。

其中的一項指控稱 Facebook 旗下的 Instagram 對青春期少女構成傷害。豪根的這封舉報信的破壞力堪稱史無前例,原因是她在 5 月份離職時帶走了 Facebook 的大量內部研究報告。上個月這份檔案被媒體曝光。而在 10 月 4 日晚間,豪根則通過 CBS 的《60 分鐘》節目首次公開了自己的身份,還親自解釋了她為何要充當 Facebook 不端行為的“吹哨人”。

豪根:我在 Facebook 反覆目睹了公眾利益與 Facebook 利益之間的衝突。而 Facebook 則一次又一次地選擇追求自身利益,努力賺錢就是其中最典型的一項。

豪根今年 37 歲,是一位來自愛荷華州的資料科學家,她擁有計算機工程學位和哈佛商科碩士學位。她曾為谷歌和 Pinterest 等公司效力了 15 年。

豪根:我見過很多社交網路,從沒見過 Facebook 這麼糟糕的公司。

主持人:其他人離職以後可能不會“多管閒事”。我想知道你為什麼要這麼做。

豪根:換位思考一下,如果你是我,你知道 Facebook 內部發生了什麼,你還知道外界對此一無所知。我知道如果我繼續留在 Facebook,我的未來會是什麼樣子,那就是不斷在內部消化這個問題,然後徹底躺平。

主持人:你是什麼時候把這些檔案帶出公司的?具體是怎麼做的?

豪根:2021 年的某個時候,我意識到,“我必須採取系統性的方式來做這件事,而且我必須要拿出足夠的證據,讓這件事情無可置疑。”

她偷偷複製了好幾萬頁的 Facebook 內部研究報告。她說,有證據表明,該公司欺騙公眾,讓人們以為它在打擊仇恨、暴力和虛假資訊方面取得了重大進展。她今年發現的一項研究報告裡面提到:“我們估計,儘管我們在這方面處於全球頂尖水平,但我們可能只會在對 Facebook 上 3% 至 5% 的仇恨內容和 0.6% 的暴力和煽動性內容採取行動。”

主持人:你提供的另一份檔案寫道,“我們從各種來源獲得的證據表明,Facebook 以及旗下的各類應用程式上的仇恨言論、分裂性政治言論和錯誤資訊正對世界各地的社會產生影響。”

豪根:當我們生活的資訊環境中充斥著憤怒、仇恨、極端的內容時,就會侵蝕民眾的信任,侵蝕我們對彼此的信心,侵蝕我們相互關懷的能力,Facebook 目前的這種形態正在撕裂我們的社會,並在世界各地引發種族暴力。

“種族暴力”包括 2018 年緬甸軍方使用 Facebook 發動的種族滅絕行動。

豪根表示,她於 2019 年加入 Facebook。她加入 Facebook 是為了打擊錯誤資訊,因為她曾因為網路陰謀論而失去了一位朋友。

豪根:我從不希望任何人遭受我這樣的痛苦經歷。確保 Facebook 呈現高質量資訊事關重大。

在 Facebook 總部,她被分配到公民誠信(Civic Integrity)部門,負責處理包括錯誤資訊在內的選舉風險。但在美國大選之後,事情卻發生了轉折。

豪根:他們告訴我們,“我們準備解散公民誠信部門。”他們的意思是說,“哦,太好了,我們過了大選這一關。沒有發生騷亂。現在可以解散公民誠信部門了。”但幾個月後卻發生了暴亂。當他們解散公民誠信部門時,我心想:“我不相信他們願意投入應該投入的資源來防止 Facebook 變成危險的地方。”

Facebook 表示,公民誠信部門的工作已分配給其他部門。豪根則表示,Facebook 問題的根源在於它在 2018 年對演算法進行的調整 —— 正是這個演算法決定了你能在 Facebook 資訊流上看到什麼內容。

豪根:所以,如果你您坐下來刷 5 分鐘手機,可能只會看到 100 條內容。但這確是 Facebook 從成千上萬的備選項裡面挑選出來的。

這套演算法根據你過去互動率最高的內容進行選擇。

豪根:Facebook 的這種內容篩選方式存在很多弊端,其中之一就是它會針對我們所參與的內容或引發我們反應的內容進行優化。但它自己的研究表明,仇恨、分裂、極端的內容更容易引發人們的憤怒情緒,而不太容易激發其他的情緒。

主持人:錯誤資訊、憤怒的內容 —— 這些都很吸引人,而且……

豪根:非常誘人。

主持人:…… 能加強使用者的粘性。

豪根:沒錯。Facebook 已經意識到,如果他們把演算法調整得更加安全,人們在它網站上停留的時間會減少,點選的廣告也會減少,他們賺的錢也會減少。

豪根說,Facebook 明白 2020 年大選蘊含的危險。因此,它開啟了安全系統以減少錯誤資訊 —— 但她說,其中許多變化都是暫時的。

豪根:選舉一結束,他們就把系統關掉了,或者把設定改回原來的樣子。這時的重點是增長,而不再是安全。

在我看來,這簡直是對民主的背叛。

Facebook 表示,該公司仍然保留了一些安全系統。但在大選結束後,一些人利用 Facebook 來組織 1 月 6 日的暴亂。檢察官引用了一些 Facebook 的帖子作為證據 —— 包括武裝人員的照片以及許多文字內容,例如“趕緊通過子彈或投票來恢復共和吧!”極端分子使用了許多平臺,但 Facebook 是主要陣地。

根據豪根保留的內部留言板副本,Facebook 員工在襲擊發生後情緒激動。“…… 難道我們沒有足夠的時間來弄清楚如何在不助漲暴力的情況下管理言論嗎?”我們搜尋其中的積極的評論後,發現了這一條,“我認為我們的領導團隊沒有無視資料,無視異議,無視真相……”但卻引來了這樣的回覆:“歡迎來到 Facebook!我發現你是 2020 年 11 月才入職的…… 我們多年來一直都在目睹…… 公司領導層不痛不癢的行動。”“…… 同事們…… 不能問心無愧地為一家沒有采取更多措施減輕平臺負面影響的公司工作。”

主持人:Facebook 本質上放大了人性中最陰暗的一面。

豪根:這是這些不幸的後果之一,對吧?Facebook 沒有人是惡意的,只是激勵措施錯位了,對吧?問題在於,你看的內容越多,Facebook 賺的錢就越多。人們喜歡參與引起情緒反應的事情。他們接觸到的憤怒越多,互動就越多,看的內容也就越多。

正因如此,歐洲的一些主要政黨才投訴 Facebook。豪根獲得的這份 2019 年的內部報告稱,各方“…… 強烈認為演算法的變化迫使他們在 Facebook 上的溝通中產生了負面情緒…… 導致他們採取更極端的政策立場。”

主持人:歐洲政黨其實是在對 Facebook 說:你編寫演算法的方式正在改變我們領導國家的方式。

豪根:是的。你在強迫我們採取我們不喜歡的立場,眾所周知,這對社會有害。我們知道,如果我們不採取這些立場,就無法在社交媒體行業勝出。

她說,有證據顯示,Facebook 的這種負面影響已經蔓延到 Instagram 上。

主持人:你發現的 Facebook 內部研究中,有一份談到了 Instagram 如何傷害青春期少女。一項研究表明,13.5% 的少女表示,Instagram 會使強化她們的自殺念頭;17% 的少女表示,Instagram 會使飲食失調更為嚴重。

豪根:Facebook 自己的研究表明,當這些年輕女性開始觀看這種強化飲食失調的內容時,她們會變得越來越沮喪。這實在令人心痛不已。實際上,這能讓她們更多地使用這款 Instagram。因此,他們最終進入了這個反饋迴圈,讓她們越來越討厭自己的身體。Facebook 自己的研究表明,Instagram 不僅對青少年構成危險,而且還對青少年構成了實實在在的傷害,這種情況比其他社交媒體更為嚴重。

就在上週,Facebook 宣佈推遲為年幼的兒童建立 Instagram 帳號的計劃。

上個月,豪根的律師向負責金融市場執法的美國證券交易委員會(SEC)提交了至少 8 項投訴。這些投訴將 Facebook 的內部研究與公司的公眾形象進行了對比 —— 主要是其 CEO 馬克・扎克伯格(Mark Zuckerberg)的公眾形象,他在 3 月通過遠端方式出席了美國國會的聽證會。

扎克伯格在 3 月 25 日的證詞中說:我們刪除了可能對現實世界立刻構成傷害的內容。我們建立了前所未有的第三方事實核查專案。這套系統並不完美。但在符合我們國家價值觀的錯誤資訊處理方式中,這是我們所能找到的最優解。

約翰・泰伊(John Tye)是豪根律師團的成員之一。他在華盛頓創辦了一家名為“吹哨人援助機構”( Whistleblower Aid)的法律團體。

主持人:你投訴到 SEC 的法律依據是什麼?你認為他們違反了哪些法律?

泰伊:作為一家上市公司,Facebook 不得對投資者撒謊,甚至不得隱瞞重要資訊。因此,SEC 定期採取執法行動,指控 Facebook 等公司存在重大的虛假陳述和資訊遺漏,對投資者產生不利影響。

主持人:Facebook 可能指控豪根竊取公司檔案。

泰伊:10 年前通過的《多德-弗蘭克法案》(Dodd-Frank Act)在 SEC 內部設立了一個吹哨人辦公室。該法律的一項條款規定,任何公司都不能禁止其員工與 SEC 溝通並與 SEC 共享公司內部檔案。

豪根:我非常同情馬克。馬克從來沒有打算建立一個充滿仇恨情緒的平臺。但他允許人們做出選擇,而這些選擇的副作用導致仇恨、極端的內容得到更廣泛的傳播,產生更大的影響。

Facebook 拒絕接受採訪。但該公司在發給《60 分鐘》欄目的書面宣告中說:“我們一方面要保護數十億人公開表達自己的權利,一方面還要確保我們平臺成為一個安全而積極的地方,我們的團隊每天都要在二者之間努力平衡。我們仍在通過大幅改進來解決錯誤資訊和有害內容的傳播問題。關於我們鼓勵不良內容且無所作為的指控完全不實。”

“如果有任何一項研究能找到明確解決這些複雜挑戰的方案,那麼科技行業、政府和社會早就解決了。”

Facebook 是一家市值 1 萬億美元的公司。僅僅創立 17 年,它就擁有了 28 億使用者,覆蓋全球 60% 的網民。豪根計劃本週前往美國國會作證。她認為聯邦政府應當對此實施監管。

豪根:Facebook 的所作所為表明他們不能獨立行事。Facebook 一次又一次地表明它更看重利潤,而不是安全。它犧牲我們的安全來換取利潤。我希望能通過這件事情對世界產生足夠大的影響,讓他們有毅力和動力去真正執行這些監管規定。這就是我的希望。