https://i.imgur.com/hPysBFF.png
https://t.co/knwLJSRrRh
用Nightshade處理過的圖,只要被別人拿去餵AI,
圖就會把AI裏面的模型破壞掉
圖上會有痕跡但聽說不太能看出來
作者: CCNK 2024-01-22 09:40:00
AI模型破壞器修復 永動機
作者: aria0520 (紫) 2024-01-22 09:41:00
沒用 這個隨便過一層jpeg encode就沒了
作者:
poz93 (jaien)
2024-01-22 09:41:00下一個 反AI破壞器
作者:
guogu 2024-01-22 09:45:00之前glaze吹到飛天 結果超影響圖片而且一下就被繞過了現在的這個連範例都沒有
原文說你即使手機翻拍螢幕那個干擾效果都在 只是沒範
作者: jychu1132 (廚餘) 2024-01-22 09:47:00
有心人士只要丟進繪圖軟體跑一下去雜訊就破解了,只需幾秒鐘
作者:
iam0718 (999)
2024-01-22 09:48:00跟馬賽克破壞器差不多
作者: aria0520 (紫) 2024-01-22 09:49:00
這種只能騙騙麻瓜
簡單來說 這就像加密技術將色碼進行轉換來防止被偷圖?我看起來感覺跟隱寫術差不多?有大老能說明一下嗎
不是 看起來是利用模型訓練抓特徵的方式加入誤導讓訓練出錯達成破壞目的 不過就像上面說的用上千張誤導過後的去抓出特徵後過濾掉就好
作者: winniekuma (Kuma) 2024-01-22 10:01:00
文組手舞足蹈
有沒有聽過adversarial training 這根本沒用
作者:
Innofance (Innofance)
2024-01-22 10:14:00等等就有人訓練AI模型破壞器的破壞器
作者:
chenteddy (Chenteddy)
2024-01-22 10:16:00超沒用 做個Normalization 就能濾掉的東西
作者: acs81046 (Banana King) 2024-01-22 10:16:00
等AI模型破壞破壞器
作者:
chenteddy (Chenteddy)
2024-01-22 10:18:00整個網站連範例圖都沒有
作者:
k12795 (遠遠)
2024-01-22 10:24:00? 供啥
作者:
guogu 2024-01-22 10:46:00查了一下這個就做glaze的團隊做的...那他們的看不太出來可能跟一般人想像有落差
作者:
lbowlbow (沉睡的小貓)
2024-01-22 10:56:00以後ai就得多弄個雜訊處理而己