[新聞] 檢測CSAM的兒童安全算法NeuralHash可能被操縱?蘋果回應:非

作者: Lyeuiechang (誠誠小屁孩)   2021-08-19 15:59:47
1.原文連結:連結過長者請使用短網址。
https://www.cnbeta.com/articles/tech/1168037.htm
2.原文標題:標題須完整寫出(否則依板規刪除並水桶)。
檢測CSAM的兒童安全算法NeuralHash可能被操縱?蘋果回應:非同個版本
3.原文來源(媒體/作者):例:蘋果日報/王大明(若無署名作者則不須)
cnBeta/cnBeta
4.原文內容:請刊登完整全文(否則依板規刪除並水桶)。
2021年08月19日 09:39
開發者通過逆向編譯,發現蘋果用於檢測 iCloud 照片中是否存在兒童性虐待材料
(CSAM) 的 NeuralHash 算法存在漏洞,可能會被黑客利用。開發者 Asuhariet Yvgar 表
示,他對隱藏代碼的 iOS 14.3 中的 NeuralHash 算法進行了逆向工程,並用 Python 重
新構建了它。
https://i.imgur.com/RTF4Ooi.jpg
經過深入調查研究之後,他發現存在一個衝突可能,即兩個不匹配的圖像共享相同的哈希
值的問題。安全研究人員對這種可能性發出了警告,因為潛在的碰撞可能使 CSAM 系統被
利用。
在給 Motherboard 的一份聲明中,蘋果表示 Yvgar 逆向工程的 NeuralHash 版本與將用
於 CSAM 系統的最終實現不同。 蘋果還表示,它已將該算法公開以供安全研究人員驗證
,但還有第二個私有服務器端算法可以在超過閾值後驗證 CSAM 匹配,以及人工驗證。
然而,蘋果在一封電子郵件中告訴 Motherboard, 用戶在 GitHub 上分析的那個版本是
一個通用版本,而不是用於 iCloud 照片 CSAM 檢測的最終版本。蘋果表示,它還公開了
該算法。
蘋果在一份支持文檔中寫道:「NeuralHash 算法 [...] 作為簽名操作系統代碼的一部
分 [並且] 安全研究人員可以驗證它的行為是否符合描述」。蘋果還表示,在用戶通過
30 個匹配閾值後,運行在蘋果服務器上的第二個非公開算法將檢查結果。
5.心得/評論:內容須超過繁體中文30字(不含標點符號)。
MotherBoard 原文:https://tinyurl.com/32kvfjbm
r/Apple 討論串:https://redd.it/p6zc2f
就目前資訊看來,蘋果應該證實了 Github 那個 NerualHash 模型是真的,
只不過他們聲稱該模型不會是最終 iOS 15 釋出時的最終版本,
同時在整個算法中,NerualHash 只是第一階段,
進到 iCloud 之後還會有第二階段的 Hashing 過程。
因此,即使在第一階段產生大量刻意混淆系統的圖片後,
在第二階段系統將會把這些照片偵測出來,避免了誤報的可能,
另外第二階段的算法目前沒有公開(有可能是 PhotoDNA?)。
蘋果同時聲稱如果兩道防線都被突破,
還有最後一道關卡會做人工審核。
作者: Lyeuiechang (誠誠小屁孩)   2021-12-04 23:42:00
[新聞]有狼師一直戳女學森(.)(.)而被家長吉上法院...
作者: Xhocer (以前也很快樂)   2021-12-04 23:44:00
) (
作者: xj654m3 (盧魚)   2021-12-04 23:46:00
( Y )
作者: Xhocer (以前也很快樂)   2021-12-04 23:48:00
\|/
作者: xj654m3 (盧魚)   2021-12-05 00:47:00
(╮⊙▽⊙)ノ|||
作者: Lyeuiechang (誠誠小屁孩)   2021-12-05 01:17:00
/|\╰╮o( ̄▽ ̄///)<
作者: LaserGunSpee (最速傳說)   2021-08-19 19:56:00
人工審核 呵呵

Links booklink

Contact Us: admin [ a t ] ucptt.com