https://i.imgur.com/Iyu9H9B.png樓上 他有一個 threshold number基本上你要iCloud裡面有一堆這種類型的照片超過那個 threshold number 他才會轉人工檢測一張兩張 有可能是誤判 可是你有100張都被確診那就合理懷疑你是有問題的100只是我隨便設一個 threshold number白皮書裡面有說 他們不會去學習不在那個資料庫內的特徵很大程度要去降誤差帶來的問題你的兒童色情圖片不在 CSAM 資料庫中在蘋果這套偵測機制下 是不會被抓出來的白皮書裡面有寫 誤判率大概是 1 in 1 trillion他有說不會訓練 CSAM 提供以外的CSAM 資料庫基本上就是一個兒童色情犯罪的檔案庫你女兒的裸照並不會無緣無故被拿去訓練除非你兒女的裸照曾經被用於犯罪用途才有機會被列進去 CSAM 資料庫更正是 NCMEC 資料庫然後 NCMEC 提供的貌似也只有 hashes 值而已所以很有可能 Apple 也碰不到原始圖片using a database of known CSAM image hashes provided by NCMEC and other child-safety organizatio