最近玩了一陣子的 ERNIE-ViLG,就是那個 26 的網站。
https://huggingface.co/spaces/PaddlePaddle/ERNIE-ViLG
還有一個會自動封鎖他覺得色色(或血腥之類的吧)的圖的。
https://huggingface.co/spaces/stabilityai/stable-diffusion
也有去 DreamStudio 玩。
https://beta.dreamstudio.ai/
稍微放一些還算可以看的好了。
https://i.imgur.com/09ptlSk.png
https://i.imgur.com/zfnYeNh.png
https://i.imgur.com/4IrHeeB.png
https://i.imgur.com/jwQyC2R.png
https://i.imgur.com/oTzvQGX.png
https://i.imgur.com/oh1rd3C.png
https://i.imgur.com/Qdc4B84.png
https://i.imgur.com/ntGWew4.png
https://i.imgur.com/Nqsrvhe.png
https://i.imgur.com/m63LRD0.png
https://i.imgur.com/4hTb2tK.png
https://i.imgur.com/wGCXvnM.png
https://i.imgur.com/QhxBScT.png
為了畫出二次元圖,嘗試過一些關鍵字。
像是 anime、動漫、動畫、漫畫之類的詞,甚至我也試過原哲夫。
但是在這類關鍵詞中,效果最好的是……pixiv。
甚至在對方看不懂我在寫什麼的時候,他還是看得懂 pixiv,所以會給出這種:
https://i.imgur.com/Y2PaZmZ.png
關鍵字是「摔角手、帥哥、pixiv」,你已經明白了。
因為是 26 做的,所以不寫「摔跤」的話他看不懂。
各網站都一樣,加了 pixiv 可以讓二次元還原度上升很多,
這是不是代表大家都爬了 pixiv 上的圖去訓練呢?
我記得明明一堆畫家都說禁止,但這些 AI 都不會炎上的理由是因為免費嗎?
有些小說 AI 還能指定要哪個作者的文風。
這怎麼看都是拿了該作者的文字作品去訓練了。
音樂的我是比較聽不出來,先不說古典樂可能可以靠輸入無版權的樂譜來學習,
近代的一些曲式、曲風,難道也有這麼開源的音樂庫可以用嗎?
特別是 J-pop,JASRAC 恐怖如斯,他們如果知道「自己」的音樂被拿去用來訓練,
應該會狠狠敲上一筆吧。