Re: [閒聊] Ai生色圖老實說

作者: Satoman (沙陀曼)   2024-10-24 19:11:29
※ 引述《napacabbage (屁眼派對)》之銘言:
: 最近有點想來試試看欸
: 在pixiv看到一個超級厲害的
: 生成的圖完全沒有Ai的感覺
: 就是很好看的二次元色圖
: 不過那個好像要自己訓練模型的樣子
: 感覺挺費時的
不費時,5分鐘就能當大師 ==
: 有人推薦用什麼模型嗎?
: 大家都在用或很好用的模型
: 讓我來訓練甜點貓的色圖
別人都幫你練好了,第一種方法直接去civitai當免費仔生 ==
1.去https://civitai.com/註冊一個帳號,這個應該不用教 ==
2.點開旁邊的眼球,點開所有的分級限制讓你能看到色圖和色模型
https://i.imgur.com/I4MgjLG.jpeg
3.去這個下面這個模型的頁面
https://civitai.com/models/833294/noobai-xl-nai-xl
4.點Create,讓他左邊介面跑出來。
5.因為我們從頁面進去的,模型已經幫我們選好了
https://i.imgur.com/17GHaqb.jpeg
直接開始寫提詞(咒語)。
https://i.imgur.com/kb4PYAM.jpeg
你要的這隻提詞大概是長這樣:
kazusa \(blue archive\), animal ears, multicolored hair, black hair,
pantyhose, pink hair, colored inner hair, hooded jacket, short hair, hairclip, black choker, two-tone hair, black jacket, hood down,
long sleeves, miniskirt, pink eyes
要脫衣服或換衣服的話就留下頭部以上特徵的題詞就好,項圈很重要留下來:
kazusa \(blue archive\), animal ears, multicolored hair, black hair,
pink hair, colored inner hair, short hair, hairclip, black choker,
two-tone hair,
簡單測試一下特徵都有抓到,沒問題。
https://i.imgur.com/OigsVGu.jpeg
開始寫正式的題詞,
這些「沒有Ai的感覺」的AI圖其實就只是混了一大堆不同畫師的畫風,
特別是那些上色風格和筆觸強烈的。
然後這種圖目前比較少見,所以AI感才比較薄弱。
所以我隨便抄別人的現成的題詞混兩個不同畫師來張泳裝,題詞寫成這樣:
artist:hito_komoru, artist:rei_(sanbonzakura),kazusa \(blue archive\),
1girl, solo, animal ears, multicolored hair, black hair, pink hair,
colored inner hair, short hair, hair ornament, hairclip, black choker,
choker, looking at viewer, two-tone hair,standing, pink eyes, large breasts,
bikini, night pool ,wading,
負面題詞寫成這樣,以後就不用動直接這套用到底:
sunlight, lowres, worst quality, bad quality, bad anatomy, jpeg artifacts,
signature, watermark
懶就直接把上面的複製貼上就好。
點開Advanced,參數照著下圖填,我簡單說明這些是幹嘛用的,不懂也沒差
https://i.imgur.com/TRynzrp.jpeg
Aspect Ratio
圖的大小,單人圖最好用預設的832*1216效果最好。
CFG Scale
讓AI是否依照題詞發揮的參數,越低越自由,越高越不自由。
通常都是填7剛剛好。
Sampler
取樣器,也有人翻譯成採樣器。調整AI降躁過程用的。
原理不用懂,只要知道下面兩種選擇就好:
DPM++ 2M Karras最通用,Euler A生圖很快但是有時候細節會缺失會錯誤。
就醬,其他的完全不重要,因為大家都只用這兩個。
Steps
步數,就是讓AI跑幾步,越多步結果越精細或完整,但是有一定上限。
DPM++ 2M Karras可以設30步,Euler A可以設20甚至15步都有不錯的效果。
不知道要填多少就25或30就好。
Seed
就隨機種子,讓他自己random就好。
如果你有一張中意的圖片想調整細節在輸入那張圖片的種子。
6.來上VAE,這東西的原理要講很久,你只要知道它的功能是加強或修正生圖結果就好。
https://i.imgur.com/0k9tKAe.jpeg
點+之後輸入SDXL,選第一個SDXL VAE就好。
這模型是SDXL衍伸的,所以我們就用這個。
https://i.imgur.com/kW55H11.jpeg
7.最後一步就這個Quantity,他只是讓你決定一次生幾張圖。
免費仔最多一次4張,旁邊會顯示你生這張圖會噴多少點,點下去等結果。
https://i.imgur.com/fsoTDHz.jpeg
8.結果就這樣:
https://iili.io/2fCmLdv.jpg
第二種,去novelai當付費仔生,方法一樣。
結果:
https://iili.io/2foovrx.png
感覺沒上面的穩定。
第三種,本機Stable Diffusion自己生,建議12GB顯存。
1.無敵懶人包,載下來點開來什麼都會自己幫你裝好。
https://github.com/EmpireMediaScience/A1111-Web-UI-Installer/releases
詳盡一點看這篇,理論上應該沒有更新到完全看不懂。
#1aRPdA3Y (Marginalman)
把剛剛的civitai模型載下來,模型和VAE都要,
模型丟到
A1111 Web UI Autoinstaller\stable-diffusion-webui\models\Stable-diffusion
這個資料夾裡。
VAE則丟到
A1111 Web UI Autoinstaller\stable-diffusion-webui\models\VAE
參數照下面填。
https://i.imgur.com/bRCgCkn.jpeg
和線上生只差一個Hires.fix,功用是放大並修復圖片細節。
之後點橘色大大的Generate,直接大爆生。
想要連續一直生可以拉高Batch count,代表生幾次之後停止。
顯卡很好可以拉高Batch size,代表一次生幾張圖。
結果:
https://iili.io/2foOphN.png
https://iili.io/2foOtkv.png
https://iili.io/2foOmIp.png
https://iili.io/2foODpR.png
https://iili.io/2foed4n.png
就這麼簡單 ==
另外有本機的可以裝一個外掛Tagger,他可以幫你反推圖片的題詞。
https://i.imgur.com/XVy1GXJ.jpeg
大概就醬 ==

Links booklink

Contact Us: admin [ a t ] ucptt.com