蘋果掃描使用者 iPhone/iPad 圖片:正義的特例,還是魔盒的開啟
高舉保護隱私大旗
這是出於正義的特例,還是潘多拉魔盒的開啟?雖然事情已經宣佈了半個月,但就像是一石激起千層浪,引發的爭議與猜測卻遲遲無法平息。而真正的後續影響,可能會在未來逐漸顯現。
“iPhone 裡發生的,就留在 iPhone 裡”。還記得這張覆蓋整座大樓的巨幅廣告嗎?在 2019 年的拉斯維加斯 CES 展會上,沒有參展的蘋果給自己打了最好的廣告。過去幾年時間,蘋果一直都在科技行業高舉保護使用者隱私的大旗,把這當成自己最大產品的賣點之一,打出了“iPhone 是專為保護使用者隱私設計”的口號。
不僅於此,蘋果還將抨擊矛頭對準了那些靠使用者大資料盈利的網際網路公司。庫克多次公開點名批評 Facebook 等網際網路公司出賣使用者隱私謀利,強調蘋果絕不會碰使用者資料,甚至在今年通過 iOS 系統更新,讓使用者自己決定是否允許資料追蹤,給 Facebook 等網際網路公司的定位廣告模式帶來了重大沖擊。
為了確保使用者資料安全,蘋果在過去幾年時間還擋住了來自美國政府的壓力,堅決拒絕了美國政府以反恐為名在 iPhone 中設定資料讀取後門的要求。此外,2016 年和 2020 年,蘋果至少兩次公開拒絕美國政府解鎖恐怖分子 iPhone 要求,甚至與政府在法庭爭鋒相對進行訴訟。
這兩起事件的背景分別是加州聖伯納迪諾槍擊案和佛羅里達海軍基地槍擊案,槍手背後都有伊斯蘭極端勢力的滲透,聯邦調查局希望從手機通訊記錄中調查恐怖分子的作案動機與聯絡機構。由於遭到蘋果的堅決抵制,最後美國政府尋求第三方破解公司的幫助,從恐怖分子手機上獲取了資料。
然而,這樣無條件保護使用者隱私的蘋果,竟然會搬起石頭砸自己的腳,公開宣佈要掃描使用者檔案,而且還是存在 iPhone 本地的照片。即便出發點是維護正義,這件事情也非常不符合蘋果的作風,更引發了關於使用者隱私的諸多熱議。這究竟是怎麼一回事?
本地掃描比對使用者照片
本月早些時候,蘋果公開宣佈要在晚些時候釋出的 iOS 和 iPadOS 系統升級裡推出新功能,在本地掃描使用者裝置是否存有兒童性侵相關的照片,與美國官方的兒童性剝削資料庫圖片進行比對。如果發現存在大量違法圖片,蘋果會通知執法人員。
這項功能是蘋果的打擊兒童性侵整體專案的一部分。此外,iMessage 簡訊服務也會加入家長控制功能,如果 12 歲或以下的未成年人通過 iMessage 傳送或瀏覽裸體圖片,他們的父母會收到系統報警。
即便阻止剝削兒童和販賣人口是在維護正義,但掃描使用者本地圖片這一功能還是過於敏感,引發了諸多爭議和憂慮。新聞釋出十天之後,面臨著外界諸多猜測和批評,蘋果負責 iOS 的高階副總裁費德里希 (Craig Federighi) 最終還是不得不出來再次澄清。
費德里希具體解釋這一功能:當 iPad 和 iPhone 使用者將本地圖片上傳到 iCloud 雲端的時候,蘋果會在本地裝置中對這些圖片進行掃描,與美國國家失蹤與受剝削兒童中心 (NCMEC) 的資料圖進行比對。如果發現大量圖片相吻合,即意味著使用者持有失蹤與性剝削兒童的圖片,蘋果會發送給稽核部門,再次確認後通知執法部門,而使用者本身並不會獲得提醒。不過蘋果隨後也會封鎖該使用者的 iCloud 賬號,相當於變相告知使用者。
但值得注意的是,系統只有在比對發現大量違規圖片時才會觸發警示,單張圖片出現問題並不會,這顯然是為了避免出現識別錯誤。而且,蘋果會聘請第三方的審查員來確認系統識別出來的內容是否違法,由他們來通知警方。不過,蘋果並沒有透露這個識別違規內容的數量閾值,外界並不知道比對發現多少違規圖片才會自動觸發。
此前蘋果曾經表示,這項掃描功能只會先在美國推出,在其他國家會在未來視情況推出。費德里希進一步解釋,這個 CSAM 資料庫是包括在 iOS 和 iPadOS 的系統升級中,只是在美國市場啟用;“我們在中國、歐洲和美國的裝置都使用同樣的軟體,包括同樣的資料庫。”
兒童色情不屬隱私
最注重使用者隱私的蘋果為什麼要公開宣佈掃描使用者本地照片?使用者存在 iPhone 和 iPad 的照片,是否完全屬於使用者隱私?網際網路公司是否要為此類違法內容負責?
美國 1996 年《聯邦通訊規範法》230 條款規定,“任何互動式計算機服務的提供商或者使用者不應被視為另一資訊內容提供商提供的任何資訊的釋出者和發言人。”這一條款又被視為網際網路公司的免責保護傘。
這個條款實際上包括兩個意思:網際網路公司無須為平臺上的第三方資訊負責,使用者在平臺釋出的內容與平臺無關;網際網路公司無須為他們善意刪除平臺內容的行為負責,他們有權根據稽核標準刪除使用者釋出的內容。
但是這把保護傘也並不是沒有邊界的。2018 年美國國會通過《打擊性販賣行為法》,明確規定網際網路公司有責任舉報和移除網路平臺上的此類違法內容,否則將會面臨相關法律的處罰;其中明確包括了兒童色情內容。這是 230 免責條款的第一個豁口。
根據這一法律,如果使用者開通了 iCloud 圖片上傳,存在本地裝置的圖片連上了網際網路,那麼蘋果作為網際網路平臺,就有責任和權力舉報和處理此類違法內容。而大多數 iPhone 使用者,iCloud 上傳功能是預設開啟的。
實際上,美國各大網際網路企業早就掃描使用者圖片庫,識別兒童色情相關內容。Facebook、Twitter、Reddit 都會對使用者存在自己平臺的內容進行比對掃描,無論是否公開發布。和蘋果一樣,他們也是通過 NCMEC 的資料庫進行比對,發現違規之後進行報警。
更為重要的是,兒童色情內容並不屬於美國憲法第一修正案關於言論自由權利的保護範圍。使用者持有兒童色情圖片本就是違法行為,無論傳播與否。美國《打擊兒童性剝削法》和《打擊販賣兒童法》都明確規定,生成、分發、接受和持有此類內容都屬於聯邦重罪,會面臨著至少 5 年,至多 30 年監禁的嚴厲懲罰。
在歐洲,這方面的網際網路監管措施甚至更早。早在 2013 年,英國就已經制定監管細則,要求從網際網路服務提供商 (ISP) 這裡遮蔽色情內容,使用者必須自己手動關閉過濾內容,才能訪問色情網站。同一時期,英國政府還要求谷歌微軟等搜尋服務商移除兒童色情搜尋結果。不過,兒童色情圖片原本就很少出現在搜尋結果中。
不會掃描其他內容
即便美國網際網路企業早就開始打擊兒童色情內容,但蘋果宣佈掃描使用者圖片依然引發了諸多質疑。蘋果向美國媒體確認,此前也曾經對 iCloud Mail 內容進行此類內容的掃描,但卻從未掃描過使用者的 iCloud Photos 圖片資料。網路資訊保安專家泰特 (Matt Tait) 指出,兒童色情圖片本來就是美國執法部門打擊的高壓線,執法部門很容易獲得傳票,要求蘋果掃描使用者 iCloud 圖片庫,蘋果也會願意配合這一要求。
蘋果所做的,和其他網際網路公司有什麼不同?其他網際網路公司是掃描使用者上傳在雲端伺服器的內容,而此次蘋果則是在使用者本地進行掃描 (前提是開啟 iCloud 同步)。為什麼蘋果會選擇在本地進行掃描?
蘋果高階副總裁費德里希強調,這項掃描機制將在裝置本地進行,而不是聯網進行比對,目前只面向美國市場。“如果有人在雲端掃描圖片,那誰知道會掃描什麼內容 (意思是可能會失控)。在我們這項功能裡面,NCMEC 的資料庫是傳輸到本地的。”
在 iOS 和 iPad 新版系統中,將自帶一個叫 NeuralHash 的工具,對圖片分解成諸多碎片進行標註與識別,對比 NCMEC 的數百萬份碎片資料進行比對。發現吻合的違規內容之後,在 iOS 或 iPadOS 之中生成一個包括違規內容的“保險庫檔案”,在此類違規內容積累到一定閾值之後才會傳送給蘋果的稽核人員。
蘋果隱私主管紐恩施萬德 (Erik Neuenschwander) 特別對此強調,如果使用者關閉了 iCloud 圖片同步功能,那麼 NeuralHash 工具就無法執行,蘋果不會,也無法進行兒童色情圖片掃描。
即便蘋果已經儘可能公開透明地宣佈這項掃描功能,依然引發了一些網際網路隱私保護機構的不滿和擔憂。這畢竟是蘋果第一次對使用者在本地的檔案進行掃描和監控,如果這次是打擊兒童色情,那麼下次又會是什麼,反恐?
蘋果高階副總裁費德里希再次強調,除了非法的 CSAM 兒童色情內容,蘋果不會擴大目前的資料掃描範圍。他強調,“如果某國政府向我們提出 CSAM 內容之外的資料掃描要求,我們會直接拒絕。如果你對此沒有信心,不相信蘋果會敢於拒絕,那麼我們還設定了多層的保護機制,我們希望讓使用者安心,在掃描什麼檔案的問題上,你不需要相信任何公司,或是任何國家。”
可能開啟後門魔盒
蘋果的確公開拒絕過美國政府的反恐後門和解鎖手機的要求,也不害怕和美國政府打官司抵制行政命令,但是如果面臨著司法部門的合法傳票和命令,蘋果也只能接受和服從,這是他們所無力抗拒的。
就在兩個月前,蘋果承認他們曾經在 2018 年 2 月按照美國政府司法部的要求,提供了一系列使用者的身份識別碼,用於確認一些使用者的電子郵件和電話號碼。當時處在“通俄門”調查中的美國政府正在祕密調查是誰向民主黨眾議員洩露了政府機密。
蘋果之所以願意配合美國政府調查,是因為收到了聯邦大陪審團的傳票,而且這份傳票還附帶保密要求。這意味著蘋果不僅需要遵守命令要向政府交出資料,還必須就此事守口如瓶,直到今年 5 月保密期限結束後,蘋果才通知相關使用者。除蘋果之外,微軟也收到了此類附帶保密要求的傳票。
美國電子前線基金會 (Electronic Frontier Foundation) 在向新浪科技傳送的宣告中明確表示,蘋果以打擊兒童色情為由的掃描使用者檔案行為違反了蘋果此前關於保密使用者隱私和加密通訊的承諾,創造了一個很容易被政府利用進行監控和稽核的技術架構。這一機制會讓蘋果未來無力抵制政府的更多要求。
電子前線基金會談到,美國政府從不避諱要求獲得使用者加密通訊,通過搜查令和法庭命令等手段施壓科技公司幫助他們獲得資料。雖然蘋果一直承諾會抵制政府 (設立後門) 要求降低使用者隱私保護的命令,但在推出這一掃描機制之後,蘋果不得不繼續抵制政府擴大掃描範圍的壓力。
這樣的處境並不只是在美國。2018 年“五眼聯盟”(美國、英國、加拿大、紐西蘭和澳大利亞) 曾經明確表示,如果科技公司拒絕提供加密資料,他們會通過技術、執法、立法以及其他手段實現合法獲取資料。隨後英國通過《調查許可權法》(IPA),要求電信運營商通過技術手段,在政府釋出資料獲取命令時提供協助。
儘管這次蘋果在 iOS 和 iPadOS 系統設定掃描機制,是為了打擊兒童色情和性剝削的正義目的,但也給自己預埋了一個危險的“地雷”。2016 年蘋果在拒絕美國司法部解鎖聖伯納迪納恐怖分子 iPhone 時,曾經公開表示自己沒有在 iOS 設定任何後門。但這一次呢?“如果你設定了 (後門),他們就會跟進。蘋果此舉是給全球各國加強監控稽核開啟了後門。”電子前線基金會這樣總結。
“iPhone 裡發生的,就留在 iPhone 裡”,蘋果的這一標誌性承諾現在需要加上一個豁免條款 —— 如果不涉及兒童色情的話,未來是否還有更多的例外?