※ 引述《headender (大大大大ㄚㄚㄚㄚ )》之銘言:
: 我不是法律相關人士,但發表一下我的看法,個人覺得AI擬真色圖跟跟二次元不能相提並論
: 二次元色圖一直都是開放的,而且已經有數據可以支持它跟兒少色情的犯罪率沒什麼關係
: 但AI擬真色圖是新的東西,沒有數據能支持他跟兒少色情的犯罪率沒關係
: 這兩個不一樣的是一個是數據上無關,另一個是還沒有數據
: 如果以聯合國兒童權利公約,兒童最佳利益的立場來看的話
: 至少也要等到有數據或研究支持AI擬真色圖跟犯罪率沒關係,再來談開放AI擬真色圖
: 像是如果研究做出來,兒少性犯罪者會都改成看AI色圖尻尻,那就會是一個滿正當的理由支持AI色圖了
: 以現階段來說,應該還是切割掉AI色圖比較簡單
加進AI後這問題我覺得很悲觀欸。現在將二次元納管是因為認為有抽象危險,而大家反對
的理由並不是反對保護兒少的法益,而是因為不認同抽象危險的論證:這違背一般人的經
驗法則,儘管有假說但是沒有支持性的證據。幾年前一堆新北鬼父新聞哪個是看二次元本
本引發犯案的?反而對立面的論證也有假說,也有數據可以論證。而且要是認同這個抽象
危險,那套用到更高的法益上的話要怎麼反對極端保守派說要禁暴力電玩?
但是加進AI後問題沒這麼明確了。假設現在AI的能力還不夠,使得我們有辦法形成某種類
型的圖片多是有問題的,其他的不太可能有問題,而且有辦法跟繪畫的區別,那你用第一
種需要自己舉證沒問題,第二種和繪畫的需要質疑者舉證的標準作為大方向可能不會產生
大問題。然而如果AI發展到我們沒有辦法做出這兩種的區隔,例如可以拿卡通風加成人算
擬真,或是拿真實的算出近似現在繪畫的成品,那我們能怎麼兼顧創作自由和兒少保護?
所有的圖都要自證清白?就算大家心理上可以接受,平台/創作者端也沒有那麼多儲存設備
吧?那樣一定更多人會支持嚴酷的執法標準。