【情報來源】
cnBeta/cnBeta
原網址:https://www.cnbeta.com/articles/tech/1166001.htm
(原始未刪減的網址)
【情報內容】
蘋果高管承認兒童安全功能讓用戶混淆 並透露相關保障措施新細節
2021年08月14日 01:53
蘋果公司軟體工程高級副總裁Craig Federighi今天在接受《華爾街日報》的重要採訪時
,為該公司計畫中有爭議的兒童安全功能進行了辯護,透露了一些關於蘋果公司掃描使用
者照片庫中的兒童性虐待材料(CSAM)保障措施的新細節。
Craig Federighi承認,蘋果在上周宣佈這兩項新功能時處理得不好,這兩項功能涉及檢
測兒童資訊中的明確內容和存儲在iCloud照片庫中的CSAM內容,並承認圍繞這些工具存在
廣泛的混淆。很明顯,很多資訊在如何理解方面被搞得很亂,蘋果希望可以更加清楚地向
用戶進行說明。
https://i.imgur.com/MvArKoD.png
事後看來,在同一時間推出這兩個功能是造成這種混亂的主要原因。蘋果推出的通信安全
功能意味著,如果兒童通過iMessage發送或接收露骨的圖像,他們在查看之前會得到警告
,圖像會被模糊,並且會有一個選項讓他們的父母得到提醒。另一方面,CSAM掃描則試圖
在上傳到iCloud之前,將用戶的照片與已知CSAM的散列圖像進行匹配。檢測到CSAM的帳戶
將接受蘋果公司的人工審查,並可能被報告給美國國家失蹤和被剝削兒童中心(NCMEC)
。
這些新功能受到了來自用戶、安全研究人員、電子前沿基金會(EFF)和愛德華斯諾登的
大量批評,甚至是蘋果員工的批評。在這些批評聲中,Craig Federighi解決了其中一個
主要的關注領域,強調蘋果的系統將受到保護,防止被政府或其他協力廠商利用,並有多
層次的可審計性。
Craig Federighi還透露了圍繞該系統保障措施的一些新細節,例如,使用者需要在其照
片庫中滿足約30個CSAM內容的匹配,蘋果才會被提醒,屆時它將確認這些圖像是否是CSAM
的真實實例。如果而且只有當用戶達到30張已知兒童色情圖片的匹配門檻時,蘋果才會知
道使用者的帳戶和這些圖片的情況,而且在這一點上,蘋果只知道這些圖片,不知道使用
者的任何其他圖片。
Craig Federighi還指出了將匹配過程直接放在iPhone上的安全優勢,而不是發生在
iCloud的伺服器上。因為它在手機上,安全研究人員能夠不斷研究蘋果手機軟體中發生了
什麼。因此,如果做出任何改變,以某種方式擴大這個範圍,安全研究人員就會及時發現
。
當被問及用於匹配使用者設備上CSAM內容的圖像資料庫是否會插入其他材料(如政治內容
)而受到影響時,Craig Federighi解釋說,該資料庫是由多個兒童安全性群組織的圖像
構建的,其中至少有兩個是在不同的司法管轄區。據Craig Federighi稱,這些兒童保護
組織以及一個獨立的審計機構將能夠核實圖像資料庫只包括來自這些實體的內容。