[閒聊] 推特:防止AI學習繪師作品的方法

作者: gundamx7812 (台灣沒人看足球)   2022-10-07 15:17:24
就是在作品圖中加入人類肉眼難以辨識的雜訊
https://i.imgur.com/PBBbNRA.jpg
https://twitter.com/Akihitweet/status/1577827240330809344?t=FOSz6UZh2oyMsStXJ8LE
Zg&s=19
不過回覆裡也有人說有技術可以克服雜訊問題就是了
延伸閱讀:如何欺騙AI
https://youtu.be/YXy6oX1iNoA
作者: diabolica (打回大師再改ID)   2022-10-07 15:18:00
如何欺騙人類
作者: D2Diyus (想買的書太多了)   2022-10-07 15:18:00
這真的比較是在欺負盜圖仔肉眼w
作者: b2202761 (嵐水滴)   2022-10-07 15:19:00
就只不過是在抓圖時候多一道刪除雜訊的步驟
作者: Nuey (不要鬧了好暴)   2022-10-07 15:19:00
就多一道工序而已== 哪有差你不如整張圖都打上馬賽克還比較有用
作者: holiybo (米羅)   2022-10-07 15:19:00
這是不是跟防b站盜片是同一個原理
作者: aqswde12349 (Last Embryo)   2022-10-07 15:20:00
這跟加浮水印一樣沒屁用吧,又不是不能去除掉
作者: hami831904 (士司P)   2022-10-07 15:20:00
在色圖加入雜訊→古典制約導致性奮與雜訊連結→未來光看雜訊就可以射
作者: k960608 (霧羽‧浪沙)   2022-10-07 15:20:00
這就上鎖的概念 總會有拆鎖專家
作者: Bugquan (靠近邊緣)   2022-10-07 15:21:00
人眼不能辨別,但是AI勒?
作者: k960608 (霧羽‧浪沙)   2022-10-07 15:21:00
但是上鎖可以防止很多低等ai也是事實
作者: mikeneko (三毛貓)   2022-10-07 15:21:00
建議加上防支咒
作者: joseph93234 (justrelax)   2022-10-07 15:21:00
adversarial perturbation
作者: k960608 (霧羽‧浪沙)   2022-10-07 15:22:00
人眼不能辨識=我可以正常尻 ai會辨識=ai會得到跟我們不一樣的資訊 這樣有沒有看懂
作者: pikachu2421 (皮卡@めぐ民)   2022-10-07 15:22:00
實際上根本不同類型的AI 不會有什麼效果
作者: minoru04 (華山派巴麻美)   2022-10-07 15:23:00
跟以前看到鎖碼台雜訊畫面就勃起一樣
作者: oldriver (oldriver)   2022-10-07 15:23:00
AI看得懂=AI可以把它挑出來去掉 多一道工而已
作者: phoenix286 (糰子大家族)   2022-10-07 15:24:00
AI在讀樣本時不會做濾波嗎?
作者: forb9823018 (風過無痕)   2022-10-07 15:24:00
單張圖識別物件才有用
作者: sameber520 (請給我蘿莉)   2022-10-07 15:25:00
只有一招 那就是拒絕交流 但肯定不值得
作者: a43164910 (寺杉伊六)   2022-10-07 15:25:00
有人覺得只有他看得懂欸 笑死
作者: geniuseric (很少上批踢踢)   2022-10-07 15:25:00
偷放維尼和綠色母狗呢
作者: lay10521 (小伊達)   2022-10-07 15:25:00
可以做到原圖相似度97%以上 但肉眼看不出來
作者: moritsune (君をのせて)   2022-10-07 15:25:00
早在讓AI畫圖前這類去雜訊的研究就已經做幾十年了
作者: LLSGG (西西西瓜)   2022-10-07 15:26:00
這史前論文我覺得已經解決了啦
作者: haha98 (口合口合九十八)   2022-10-07 15:27:00
以前gan紅的時候gradient adversarial 就一堆了已知用火
作者: csvt32745 (圓仔)   2022-10-07 15:27:00
作者: vios10009 (vios10009)   2022-10-07 15:27:00
你各位知道為什麼中國轉貼的圖片很多品質差又有雜訊了吧,那是為了防盜啦
作者: k0942588 (Oort)   2022-10-07 15:27:00
這只能防到很低階的model吧
作者: sameber520 (請給我蘿莉)   2022-10-07 15:27:00
以前怎麼防駭客 直接物理分隔系統不連網 同一招
作者: kinghtt (萬年潛水伕)   2022-10-07 15:27:00
達文西領先業界500年...
作者: franktpmvu (fch)   2022-10-07 15:28:00
這個是辨識用的模型 跟生成用的模型罩門不一樣 辨識模型可能因為加一點雜訊就認錯物體 但加了雜訊的熊貓在生成模型一樣會產生加了雜訊的熊貓
作者: qxpbyd (qxpbyd)   2022-10-07 15:28:00
https://i.imgur.com/VyHLRzb.jpg 抱歉 隨便找就一篇還原
作者: smart0eddie (smart0eddie)   2022-10-07 15:28:00
這種東西換個model就沒屁用了
作者: k960608 (霧羽‧浪沙)   2022-10-07 15:28:00
沒錯 最強的鎖就是連門都沒有
作者: k960608 (霧羽‧浪沙)   2022-10-07 15:29:00
其實你各位每次輸入的驗證碼就是在幫ai識別啦
作者: csvt32745 (圓仔)   2022-10-07 15:29:00
生成模型上不知道有沒有用就是XD
作者: qxpbyd (qxpbyd)   2022-10-07 15:29:00
而且那是影響分類問題 不知道對生成模型是有什麼影響
作者: swear01 (swear)   2022-10-07 15:29:00
這個沒用啦 李弘毅前幾天在講transfer learning的時候才講過這個,那裡的研究原因是訓練出來的AI模型要防盜,結論卻是在肉眼看不出來的雜訊下,AI因為減少了Overfitting反而效果更好
作者: Annulene (tokser)   2022-10-07 15:29:00
看著蠻搞笑的 已經不知道安怎了..
作者: haha98 (口合口合九十八)   2022-10-07 15:29:00
你攻擊gan可能還有點機會 但是現在紅的是diffusion
作者: asd8569741 (奇負零)   2022-10-07 15:30:00
SD本身就是建立在去噪的模型,這種防禦方式會有用嗎
作者: smart0eddie (smart0eddie)   2022-10-07 15:30:00
diffusion 就是在去雜訊的==
作者: qxpbyd (qxpbyd)   2022-10-07 15:30:00
GAN有分類器 擴散模型沒有
作者: IntelG4560 (英特爾G4560)   2022-10-07 15:31:00
Difussion好像就是用加雜訊去雜訊的方式訓練的,懷疑這個方法有效性
作者: haha98 (口合口合九十八)   2022-10-07 15:33:00
建議可以先去看幾門開放式課程再來
作者: milk830122 (SuperX)   2022-10-07 15:34:00
繪師在這方面那比得過真正的工程師 耍小聰明哪有用
作者: e446582284 (ef225633)   2022-10-07 15:34:00
用AI的方法對抗AI? 腦洞真大,多一道工而已,連遊戲DRM 都擋不住駭客,你才圖片是要擋什麼
作者: Mchord (Mchord)   2022-10-07 15:34:00
這方法完全無效,不用幻想了
作者: sameber520 (請給我蘿莉)   2022-10-07 15:34:00
不要自以為能在技術上取巧 技術一年可能好幾次大改
作者: Mchord (Mchord)   2022-10-07 15:35:00
你如果加了雜訊圖好看那train下去一樣會生出好看的東西
作者: tim910282 (tim)   2022-10-07 15:36:00
那就只好生出產生雜訊的AI了
作者: sameber520 (請給我蘿莉)   2022-10-07 15:36:00
這麼想防 那就是從現在開始都別放圖
作者: mapulcatt (cosi fun tutte)   2022-10-07 15:36:00
工程師:已知用火
作者: shadowblade (影刃)   2022-10-07 15:36:00
影像處理早就能搞定這種東西了
作者: chuegou (chuegou)   2022-10-07 15:36:00
現在主流網站用可見雜訊驗證碼都防不住機器人了 影像辨識很強大捏
作者: Bugquan (靠近邊緣)   2022-10-07 15:36:00
就算不改模型,也只是多一道工,而且除非全加了,不然總有沒加工的
作者: Mchord (Mchord)   2022-10-07 15:36:00
加到整張看不清楚連粉絲都不想看的話,他們也懶得盜你圖
作者: miyazakisun2 (hidetaka)   2022-10-07 15:37:00
那個雜訊還原 已經....
作者: k960608 (霧羽‧浪沙)   2022-10-07 15:37:00
對 最終就會走向大家都不放圖的境界
作者: Bugquan (靠近邊緣)   2022-10-07 15:37:00
不放圖先餓死繪師而已
作者: mn435 (nick)   2022-10-07 15:38:00
Ai學老圖就夠本了吧…
作者: vios10009 (vios10009)   2022-10-07 15:38:00
這個AI本身就是以降噪為基底去練習的,這就像是在國文考卷上丟一堆幼稚園數學題目,AI看了都會笑
作者: qxpbyd (qxpbyd)   2022-10-07 15:38:00
訓練過程就會加噪了 等於是繪師先幫忙放了一點noise
作者: alen0303 (艾倫零參 智商負三)   2022-10-07 15:38:00
這已經好幾年前的問題了 早就被解決了
作者: Annulene (tokser)   2022-10-07 15:38:00
看著跟當時抖音的情況有點像? 結果應該也差不多 使用者越來越多的話
作者: mn435 (nick)   2022-10-07 15:39:00
最後ai學ai誰要學繪師
作者: jasonchangki (阿特拉斯聳聳肩)   2022-10-07 15:39:00
真正厲害早就去當工程師了哪會繪師
作者: sameber520 (請給我蘿莉)   2022-10-07 15:39:00
但繪師的知名度和商業來源要先從分享開始 所以別想了
作者: LiangNight   2022-10-07 15:39:00
越來越好奇未來的發展了
作者: sameber520 (請給我蘿莉)   2022-10-07 15:40:00
工業革命時的手工業者最後還不是得進工廠工作
作者: twosheep0603 (兩羊)   2022-10-07 15:42:00
這套是騙分類器用的 aka tag污染對於diffusion來說可以說是毫無作用w
作者: ringtweety (tark)   2022-10-07 15:43:00
AI現在生的圖的等級 其實已經告訴你這雜訊效果不大了
作者: undeadmask (臭起司)   2022-10-07 15:45:00
最後就會變成繪師都懶得畫圖 ACG二創市場萎縮 宅宅只能看AI圖尻尻 大家互相傷害罷了
作者: qxpbyd (qxpbyd)   2022-10-07 15:46:00
https://i.imgur.com/qMV2uoH.jpg Cold Diffusion那一篇試過加不同種的noise了
作者: zeolas (zeolas)   2022-10-07 15:47:00
看以後會不會變成軍備競賽囉,我反制你的反制之類的
作者: TentoEtsu (天藤悅)   2022-10-07 15:48:00
好像還滿多人樂見這種互相傷害 笑死 以後大家都沒得看
作者: a43164910 (寺杉伊六)   2022-10-07 15:49:00
活不到那個以後啦 都沒得看是要發展成怎樣==
作者: sameber520 (請給我蘿莉)   2022-10-07 15:49:00
我倒覺得以後AI會變成繪師工作用IDE的一部份吧說到底還不是要人下指令 修圖也還是繪師修的好
作者: Irenicus (Jon Irenicus)   2022-10-07 15:51:00
不放圖就不能當社群偶像了 太苦了是說有時間想這些有的沒的 不如趕快去研究AI可以怎樣讓自己的產圖更多更好
作者: Lhmstu (lhmstu)   2022-10-07 15:52:00
這方法太低階了吧...
作者: guogu   2022-10-07 15:52:00
怎麼可能沒得看 如果AI圖夠好看夠有趣 大家看AI圖一樣享樂如果AI圖千篇一律 沒故事性 那樣人類繪師就會繼續主流
作者: nisioisin (nemurubaka)   2022-10-07 15:53:00
這張圖是數位邏輯還是影像辨識課本跑出來的吧XD這種程度應該很好分離出來
作者: Siika (詩花)   2022-10-07 15:53:00
真的要防就是完全斷網啦
作者: guogu   2022-10-07 15:56:00
真的要防就是畫完送碎紙機 不上傳不出版就不可能被學
作者: GreenComet (迷宮の十字路)   2022-10-07 15:56:00
都有對抗式訓練了 那比白噪點更能攻擊網路
作者: orange0319 (喵喵喵)   2022-10-07 15:56:00
不就和驗證碼一樣,到後來正常人根本不知道驗證碼那團歪七扭八文字是啥,但是電腦卻能辨識
作者: asiaking5566 (無想轉生)   2022-10-07 15:57:00
只能讓自己推的愛心數變少而已
作者: purue (purue)   2022-10-07 15:57:00
去防這個 不如公開模仿資訊讓繪師抽成
作者: DJYOSHITAKA (Evans)   2022-10-07 15:57:00
這超多人在做了吧
作者: mom213 (mom213)   2022-10-07 15:58:00
這老方法了 一堆外行仔zzz
作者: sinnerck1 (Demonbane)   2022-10-07 16:00:00
騙分類器的老方法是有什麼用
作者: mapulcatt (cosi fun tutte)   2022-10-07 16:01:00
畫師都死去大概也沒差 到後來用照片訓練 AI圖互相訓練
作者: aaaaooo (路過鄉民)   2022-10-07 16:01:00
這就第N次工業革命阿 先學會用法的人可以把其他人淘汰掉
作者: mapulcatt (cosi fun tutte)   2022-10-07 16:02:00
然後再由受眾的反應去決定訓練的反饋就好了就像當時阿法狗一樣 進化到後來 人類的棋譜反而是累贅
作者: ringtweety (tark)   2022-10-07 16:05:00
當AI已經能呈現出水準很高的圖 而不是什麼都畫成邪神
作者: guogu   2022-10-07 16:05:00
繪師本來就外行人啊 人家是畫圖的不是搞ai的是要多內行
作者: zeus7668 (HighKing)   2022-10-07 16:05:00
文組想到的方法沒什麼參考意義
作者: Annulene (tokser)   2022-10-07 16:06:00
跟“人類”借圖還要知會一下 這個根本厲害 還難追溯源頭
作者: ringtweety (tark)   2022-10-07 16:07:00
表示它的理解能力已經不是這種雜訊就可以斷的了
作者: Aurestor (水母)   2022-10-07 16:08:00
這招是在瞧不起AI嗎
作者: misclicked (misclicked)   2022-10-07 16:10:00
我的論文就是做這個的
作者: akiue (樂透冥登)   2022-10-07 16:17:00
AI:哈欠。想到網頁有時會出現,懷疑你是機器人。
作者: aaronpwyu (chocoboチョコボ)   2022-10-07 16:27:00
就跟放符文防中國一樣啊 插入訊息防盜用
作者: clothg34569 (提拉米蘇冰淇淋)   2022-10-07 16:29:00
這一看就外行人的言論= =晚點再回一篇好了 這篇只證明了懂AI真的很重要之後繪師是不是應該要把李宏毅的課程列為必修阿
作者: dsa888888 (KurumiNZXT Kraken X61 C)   2022-10-07 16:34:00
不要上傳圖片讓它沒得吃雖然現在的圖庫應該夠了
作者: jokerjuju (juju)   2022-10-07 16:35:00
這個大概還是停留在剪貼時代的產物
作者: johnny3 (キラ☆)   2022-10-07 16:39:00
一句話 來不及了啦
作者: Raptors1 (正宗哥吉他)   2022-10-07 16:46:00
小干擾就死掉的AI不會被端出來啦以為工程師的頭髮白掉的?
作者: junren0183 (Junren)   2022-10-07 16:49:00
這麼怕就不要貼圖出來就好了==
作者: Darnatos   2022-10-07 17:04:00
這沒用...
作者: xxxyangxxx (噹噹)   2022-10-07 17:13:00
前面加個濾波器就破解了
作者: chairfong (廢文ID)   2022-10-07 17:18:00
人類對ai做的事 就像以前大人為小孩裝了第四台鎖碼器
作者: start928 (我是人)   2022-10-07 17:24:00
其實加雜訊進去 會讓這個程式更有robust 本來就有這個技術了 這篇是在反串嗎XD
作者: Kururu8079   2022-10-07 17:24:00
笑死,真的是已知用火欸
作者: syldsk (Iluvia)   2022-10-07 17:30:00
這個本來就有在研發不是?
作者: Oxyuranus (Oxyuranus)   2022-10-07 17:36:00
那就是補一個filter再餵圖而已
作者: manu5566 (深海大蚌殼)   2022-10-07 17:44:00
訓練都會加noise了,你這個反而是幫助他們訓練,
作者: jacky5859 ( )   2022-10-07 18:30:00
這個不是很久了嗎
作者: watashino (我同學數學很爛)   2022-10-07 18:33:00
這串一堆不懂DL的在鬧欸==
作者: paul51110 (JustBecause)   2022-10-07 19:05:00
已知用火
作者: Cactusman (仙人掌人)   2022-10-07 19:26:00
到底為啥要防止AI學習?
作者: bitcch (必可取)   2022-10-07 19:30:00
笑死 人工adversarial attack 更何況現在是生成模型

Links booklink

Contact Us: admin [ a t ] ucptt.com