[姆咪] 英國不只研究可笑,連AI都很蠢

作者: kitune (狐)   2017-12-21 20:25:34
https://goo.gl/sfSMQC
人工知能には「砂漠」の画像がエロ画像に見えるらしい
https://i.imgur.com/DJ1lLKd.jpg
倫敦警察想用AI來打擊網路犯罪
結果他們的AI會把沙漠照片當成兒童色情圖片來檢舉
理由是顏色很像,沒辦法分辨是人的皮膚還是自然景觀
太蠢了,以後貼沙漠照片會被查水表嗎?
作者: dichenfong (S級英雄第一位 唬爛超人)   2017-12-21 20:26:00
分不出是皮膚還是自然景觀就算了 為啥會是兒童色情
作者: kitune (狐)   2017-12-21 20:27:00
因為它們寫這支AI就是要查兒童色情
作者: CavendishJr (花學姐最高)   2017-12-21 20:27:00
一定4官方自製的
作者: kitune (狐)   2017-12-21 20:28:00
我覺得幹嘛不問美國FBI 它們很熟了
作者: jeeyi345 (letmein)   2017-12-21 20:31:00
十年前的相機就會認臉了好像軟片時代就有的功能
作者: KiniroMosaic (梓妹妹)   2017-12-21 20:32:00
打擊兒童色情幹嘛?

Links booklink

Contact Us: admin [ a t ] ucptt.com