蘋果掃描iPhone所有照片,發現問題還要報警:全新「保護」計劃惹眾怒

機器之心編輯部

這種叫做 neuralMatch 的系統將會實時掃描你手機裡的所有照片,傳上雲端進行比對。如有非法則聯繫執法部門。

眾所周知,iPhone 雖然貴但很好用。人們選擇 iPhone 的一大理由就是資訊安全:不論是手機上物理存在的「安全飛地」,還是蘋果公司面對 FBI 解鎖嫌犯手機需求寧願打官司也不從的態度,這家公司對於個人隱私的保護一直為人稱道。

然而就在最近,蘋果突然改變態度的訊息傳出,讓人大為驚訝。

《金融時報》等媒體爆出,蘋果計劃掃描所有儲存在 iPhone 和 iCloud 上的照片,以找出兒童色情圖片。新系統將能夠幫助執法部門進行刑事調查,但可能會導致法律和政府對使用者資料的需求增加。

據外媒報道,該系統名為 neuralMatch,一旦檢測到非法圖像,將主動提醒一組人工審核人員。如果經驗證「違法內容」屬實,公司將聯繫執法部門。

neuralMatch 系統使用來自美國國家失蹤與受剝削兒童保護中心(National Center for Missing & Exploited Children)的 20 萬張圖像進行訓練。該系統將率先在美國推出,使用者儲存的照片將被掃描並與已知的兒童虐待圖像資料庫進行比較。

這還不是全部,蘋果還有一個新功能會掃描兒童賬號登陸的 iPhone,系統會掃描發送和接收到的所有 iMessage 圖像,以查找色情內容,如果兒童年齡在限制以下,則出現違規圖像時會通知父母。父母可以選擇打開或關閉這個功能。

據介紹,蘋果的掃描是全方位的:這些新功能將會在今年晚些時候作為 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的特性在更新時推出,也就是說大概率會在 9 到 10 月份上線。

從 iPhone 本地開始掃描

在今天的金融時報上,蘋果的照片掃描計劃被正式曝光。

知情人士透露:之後在美國每張上傳到 iCloud 的照片都會得到一份「安全憑證」,來說明是否可疑。一旦一定數量的照片被標記為可疑,蘋果就會對所有這些可疑的照片進行解密和人工審查,如果涉及違法行為,蘋果會將其轉交給相關法律部門。

具體來說,蘋果掃描照片的方式有點類似於微軟的 PhotoDNA,不過蘋果的掃描主要是在設備端進行的,處理過的圖像會被轉換為機器學習所需的參數,在雲端與資料集進行匹配,設備端不會知道是否找到了匹配項。這意味著當新功能推出時,NCMEC CSAM 資料庫的一個版本將下載到每部 iPhone 中。

不論這套技術中的隱私和安全保護是如何實現的,上傳到 iCloud 的所有照片都將被掃描。

蘋果的第二個新功能是基於 iMessage 發送或接收的掃描照片的敏感內容通知。為了實現這種功能,其將推出一個設備端機器學習分類器,旨在檢測「色情圖片」。蘋果稱這些功能(在發佈時)僅限於已註冊家庭帳戶的 18 歲以下美國使用者。在新流程中,如果 13 歲以下兒童持有的帳戶希望發送設備上機器學習分類器判定為色情圖片的圖像,則會彈出通知,告訴父母會接到通知。

如果兒童仍然選擇發送內容,則系統將通知家長,且圖像將不可撤銷地發送至手機的家長控制部分,供家長稍後查看。對於 13 至 17 歲的使用者,會彈出類似的警告通知,但沒有家長通知。

類似地,如果 13 歲以下兒童收到 iMessage 認為「色情」的圖片,在被允許查看照片之前會彈出一個通知,告訴兒童他們的父母將收到通知。如果使用者決定接收圖像,則會通知父母並將圖像保存到手機中。13 至 17 歲的使用者同樣會收到警告,但不會將有關此操作的通知發送到其父母的設備。

無論是發送還是接收此類內容,未成年使用者都可以選擇在不通知父母的情況下中斷髮送或接收。儘管如此,蘋果無疑是在監視使用者手機內容的道路上向前走了一步。

是安全保護還是隱私侵犯?

霍普金斯大學教授、密碼學家 Matthew Green 對這種系統表示擔憂。Green 說:「這種工具能夠可以幫助查找手機中的兒童色情內容,但想象一下,如果掌握權力的公司或機構獲得了這種系統,會發生什麼?」

他表示:「即使你認為蘋果不會允許這些工具被濫用,仍然有很多值得關注的地方,這些系統依賴於一些可能存在問題的資料庫,而普通消費者卻無法查看這些資料。」

來自約翰霍普金斯大學教授密碼學的電腦科學副教授 Matthew Green 對此事表示了擔憂。

此外,有研究人員表示,雖然該系統目前經過訓練可以發現兒童性虐待,但它也具備掃描任何其他有針對性的圖像和文字的潛力,例如恐怖斬首等暴力場景。蘋果的這種行為可能增加其他科技公司使用類似技術的壓力。

曾在 Facebook 和 Deliveroo 工作的安全研究員和隱私活動家 Alec Muffett 表示:「蘋果這一舉動是將讓個人隱私領域倒退一大步。」

與其他基於雲的照片儲存系統和社交網站一樣,蘋果此前已經根據已知的虐待兒童圖像檢查了 iCloud 的檔案。但當試圖訪問儲存在個人設備上的資料時,這個過程就變得更加複雜了。neuralMatch 的新系統則更加激進,允許機器學習系統對本地儲存的資料進行訪問。

不過也有專家認為,蘋果的監控方式已經很大程度上保護了隱私。薩里大學電腦保安教授 Alan Woodward 表示:「蘋果系統的侵入性較小,因為篩選是在手機上完成的,並且只有在可疑資訊匹配時才會向搜尋者發送通知。只有採用這種去中心化方法,才是蘋果新系統保護隱私的最佳選擇。」

目前尚未有更多關於該系統的細節,不過除了《金融時報》,蘋果開啟 neuralMatch 計劃的訊息也已被其他多個訊息源證實。知情人士透露:蘋果最快可能在本週宣佈更多有關該系統的資訊。

參考內容:

https://www.theverge.com/2021/8/5/22611305/apple-scan-photos-iphones-icloud-child-abuse-imagery-neuralmatch

https://www.eff.org/deeplinks/2021/08/apples-plan-think-different-about-encryption-opens-backdoor-your-private-life

相關文章

被蘋果放棄的這些 iPhone,太可惜

被蘋果放棄的這些 iPhone,太可惜

每年新 iPhone 發佈完,各路蘋果分析師就會幹一個神祕儀式。 沒錯,那就是預測下一代 iPhone ……以至於機哥都覺得,庫克是看了他們...

iPhone 12定了,這次真的有重大升級

iPhone 12定了,這次真的有重大升級

前不久,蘋果終於敲定今年 WWDC 的時間:6月22日。等了一年多,iOS 14 終於確定發佈的日子。 概念圖,來源於網絡 一時之間,關於 ...