作者:
sxy67230 (charlesgg)
2023-07-17 11:39:17※ 引述《falomu (瞂雒毣)》之銘言:
: 使用生成式AI圖片販售?智慧局將研擬指引防侵權爭議
: 2023/7/16 10:15(7/16 10:27 更新)
: https://www.cna.com.tw/news/afe/202307160024.aspx
阿肥碼農阿肥啦!
先說一下,當前學界確實是有一些研究來保護私人資料不受到模型侵權的。
當前生成式AI模型主要還是在於他是學習數據的樣態分佈來預測,所以當前的著作權跟專
利權法沒有針對這塊(過往侵權都要樣式匹配才行)訂立法律,其實也是因為這塊難以列舉
侵權。
當前學界有些研究方式是在數據上動一些手腳,文字上把可用字分為green list 跟 red
list,透過一些軟式的AI算法影響你資料的熵,最後統計這些資料符合某種顯著性統計特
徵來認證模型學習了我的數據,這樣或許就有機會防堵模型學習。圖片跟語音理論上也能
如法炮製,塞入特殊水印來佐證機器學習了我的水印分佈。
不過這一樣會有一些問題,就是如果取得你的資料的人透過某些方式精心的人工調整後就
很容易破壞這種統計上的浮水印,這種攻擊模式目前學界還是在研究怎麼破解。
另外,有一些低熵的資料,像唐納德,90%以上公開數據肯定後面接川普的資料就是一種
低熵數據就很難使用這種方式擾動產生浮水印,還有就是程式碼的固定語法只有唯一解答
的就很難在上面產生水印。
所以不見得如鄉民大家說的AI生成很難驗證著作權或專利權,只是還需要更多的研究而已
。
差不多4講