1. 程式人生 > 資訊 >普林斯頓大學學者稱蘋果 CSAM 篩查系統存隱患,因為他們做過類似專案

普林斯頓大學學者稱蘋果 CSAM 篩查系統存隱患,因為他們做過類似專案

8 月 23 日上午訊息,近期普林斯頓大學的兩位學者表示,他們認為蘋果公司兒童性虐待照片(簡稱 CSAM)篩查系統具有一定危險性,因為他們曾構建過一個類似的系統。

此前,蘋果公司出於保護兒童免受色情內容侵襲,宣佈推出三項保護政策。包括:機器篩查 Messages 資訊,當孩子收到色情圖片時,圖片會變得模糊,並且 Messages 應用程式會顯示一條警告;兒童性虐待內容(簡稱 CSAM)檢測,該功能讓蘋果檢測儲存在 iCloud 雲端照片中的這類影象特徵資訊,如果確定有此類影象,蘋果會向執法部門報告;Siri 和搜尋功能改進,人們可詢問 Siri 如何報告兒童性虐待內容或性剝削,Siri 將告訴使用者在哪可以彙報給有關部門。

普林斯頓大學這兩位學者說,他們曾經的一個專案工作原理與 Apple 的方法完全相同,但他們很快發現了明顯的問題。

助理教授 Jonathan Mayer 和研究生研究員 Anunay Kulshrestha 在《華盛頓郵報》的報道中提到,他們與蘋果有著同樣的善意目標:

“我們的研究專案始於兩年前,作為一個實驗系統,用於識別端到端加密線上服務中的 CSAM。作為安全研究人員,我們知道端到端加密的意義,它可以保護資料免受第三方訪問。但我們也對 CSAM 在加密平臺上激增感到震驚。而且我們擔心,線上服務不願意在沒有額外工具來對抗 CSAM 的情況下加密

我們試圖探索一種可能的中間立場,即線上服務可以識別有害內容,同時保留端到端加密。這個概念很簡單:如果有人分享了與已知有害內容資料庫相匹配的內容,該服務就會收到警報。如果一個人分享了無關的內容,該系統就不會篩查到。人們無法閱讀資料庫或瞭解內容是否匹配,因為這些資訊可以揭示執法方法並幫助犯罪分子逃避檢測。”

在停止專案之前,他們已經做出一個工作原型:

經過多次錯誤的啟動,我們構建了一個工作原型。但是我們遇到了一個明顯的問題。

我們的系統可以很容易地重新用於監視和審查。篩查設計不限於特定類別的內容。例如,外國政府可以強制要求提供服務,將那些分享不受歡迎的政治言論的人找出來。

兩人表示,他們對蘋果公司決定推出這項服務感到困惑,因為目前未能妥善解決他們提出的風險:和我們一樣,Apple 的動機是保護兒童。它的系統在技術上比我們的更高效、更有能力。但是我們很快發現,對於我們提出的難題,Apple 幾乎沒有答案。

這也是蘋果這些動作引發爭議的原因:雖然他們表示不會允許這種濫用,但政府可以依法強制公司這樣做。