1. 程式人生 > 資訊 >以 CSAM 之名掃描手機,蘋果提醒員工為 iPhone 後門問題做好準備

以 CSAM 之名掃描手機,蘋果提醒員工為 iPhone 後門問題做好準備

8 月 15 日訊息 眾所周知,蘋果此前推出了一項新政策,可在不經過使用者許可的情況下掃描儲存在 iCloud 照片庫中的 CSAM(兒童性虐待照片)內容,一時間在海外激起千層浪,輿論浩蕩紛紛反攻蘋果。

但目前看來蘋果依然是執意推行新政策,例如蘋果本週已下發備忘錄,以向其零售和線上銷售人員提醒,要求他們準備好就如何回答消費者對於有關 iPhone 的 CSAM 後門的問題統一口徑。

蘋果:“讓我們明確一點,這項技術檢測範圍僅限於儲存在 iCloud 中的 CSAM 內容,我們不會同意任何政府擴大它的範圍。”

但現在部分使用者和外媒又丟擲了一個問題:

長期以來,蘋果確實一直在遵守當地的法律,如果某政府通過立法來要求蘋果幫助搜尋使用者手機中的其他型別影象 (犯罪、恐怖主義、政治、信仰、性取向等),蘋果會怎麼做? 就算按他們所說,蘋果不會在沒有相關法律的情況下接受任何政府的要求,但是,基於歷史來看,難道蘋果也會拒絕法律的要求嗎?通往地獄的道路往往是由善意鋪就的。

據悉,蘋果還表示,將通過讓獨立審計師審查系統來解決隱私問題。

值得一提的是,蘋果此前曾表示,將拒絕政府利用其技術監視使用者的任何要求。

瞭解到,CSAM 功能受到了蘋果廣大使用者、安全研究人員、電子前沿基金會 (EFF) 和 美國國家安全局 (NSA) 前僱員愛德華 · 斯諾登,甚至蘋果自家員工的大量批評。

面對這些批評,蘋果軟體工程高階副總裁 Federighi 解答了大家主要關心的問題,強調蘋果的系統將受到保護,不會被政府或其他具有“多層次可審計性”的第三方利用。

Federighi 還透露了一些關於系統保護措施的新細節,例如在蘋果收到警報之前,手機會在照片庫中匹配大約 30 個 CSAM 內容,然後它會確認這些影象是否是真實的 CSAM 照片。

只有當該照片與 30 個已知的 CSAM 照片匹配的閾值時,蘋果才會知道使用者的帳戶和這些照片的資訊,而不涉及使用者的任何其他照片。此外,Federighi 表示檢測過程是全程在手機本地的。