1. 程式人生 > 資訊 >蘋果高管克雷格:通訊安全功能和掃描 iCloud 兒童虐待照片不能混為一談

蘋果高管克雷格:通訊安全功能和掃描 iCloud 兒童虐待照片不能混為一談

8 月 13 日訊息蘋果軟體工程高階副總裁 Craig Federighi(克雷格・費德里吉)今天接受了《華爾街日報》的採訪,為該公司有爭議的兒童安全計劃進行了解釋。

Federighi 承認,蘋果在上週宣佈的兩項新功能處理不當,“通訊安全”功能和“掃描儲存在 iCloud 照片庫中的 CSAM(兒童性虐待照片)內容” 不能混為一談

很明顯,很多資訊在如何理解方面非常混亂,我們希望每個人都能更清楚地瞭解這一點。

事後看來,同時宣佈這兩項功能是造成這種混亂的一個原因。同時宣佈這兩項功能,人們會將它們聯絡起來,並感到非常害怕:我的隱私發生了什麼?

答案是,您的隱私沒有發生任何變化。

他解釋稱,“通訊安全”功能指,如果孩子們通過 iMessage 傳送或接收露骨的照片,他們會在檢視照片前收到警告,照片會變得模糊,並且會有一個選項讓他們的父母收到提醒。

而 CSAM(兒童性虐待照片)掃描會嘗試將使用者的照片與已知 CSAM 的雜湊影象匹配,然後再將它們上傳到 iCloud。檢測到 CSAM 的帳戶將接受蘋果的人工審查,並可能會報告給國家失蹤和受虐兒童中心 (NCMEC)。

瞭解到,該功能受到了使用者、安全研究人員、電子前沿基金會 (EFF) 和 Facebook 前安全主管愛德華・斯諾登,甚至蘋果員工的大量批評。

面對這些批評,Federighi 解答了大家主要關心的問題,強調蘋果的系統將受到保護,不會被政府或其他具有“多層次可審計性”的第三方利用。

Federighi 還透露了一些關於系統保護措施的新細節,例如在蘋果收到警報之前,手機會在照片庫中匹配大約 30 個 CSAM 內容

,然後它會確認這些影象是否是真實的 CSAM 照片。

只有當該照片與 30 個已知的 CSAM 照片匹配的閾值時,蘋果才會知道使用者的帳戶和這些照片的資訊,而不涉及使用者的任何其他照片。此外,Federighi 表示檢測過程是全程在手機本地的