Re: [閒聊] Ai 快要可以做動畫了?

作者: attacksoil (擊壤)   2023-03-11 07:41:46
剛剛看到版友推這個
https://youtu.be/RO7TYfMyPPw
如果我理解無誤
代表只要給它剪影動畫 還有一個認識角色的模型 就可以生成動畫
如果效果再穩定一點
這樣已經很省工了吧
最近也有看到用mobilepose控制stable diffusion 的文章
作者: x2159679 ((● ω ●))   2023-03-11 07:48:00
是的 大膽預言未來由於動畫製作成本大幅降低動畫界將迎來一個全盛期我們每季都會有數十部 不 百部以上的動畫可以看滿意了嗎
作者: kasim15   2023-03-11 08:01:00
滿意
作者: arrenwu (鍵盤的戰鬼)   2023-03-11 08:06:00
省工?
作者: cat5672 (尾行)   2023-03-11 08:08:00
這應該還是很複雜的 就跟用live2d或mmd做出某些很實用的場景姿勢畫面 也和做整部動畫是兩回事
作者: miha80425 (ohsialay)   2023-03-11 08:22:00
一直都在技術演進阿 CY就是業界動作捕捉頂尖可以用在跳舞不需要全靠動畫產現在還有家用3D 跟4 5年前Live2D已經差多了
作者: adgk1213cyc (米勒)   2023-03-11 08:26:00
恭喜你理解有誤
作者: attacksoil (擊壤)   2023-03-11 08:31:00
請問有誤在哪? 是否搞錯什麼
作者: NEKOWORKi (貓工)   2023-03-11 08:34:00
[形] 節省人工、人力,也可用在省事。 教育部網站
作者: ILoveOppai (愛歐派)   2023-03-11 08:37:00
我只是看到東方
作者: gbdt (閒逛)   2023-03-11 08:44:00
https://reurl.cc/Rvzg5r (FB影片) 比較接近的是這個吧
作者: Jiajun0724 (川崎忍者)   2023-03-11 08:47:00
也只能二創 難道你原創還要搞個影片再用ai算嗎
作者: attacksoil (擊壤)   2023-03-11 08:48:00
樓上就是用mobilepose控制stable diffusion啊但我覺得bad apple這個特別的是 有限定東方角色只需要骨架 不需要影片
作者: AustinPowers (Yeah~baby Yeah~~)   2023-03-11 08:50:00
電腦還有得學啦,等到動作技術成熟,用AI生成流暢的動作(更甚之還得符合動畫語法),才能直接套在3D骨架
作者: arrenwu (鍵盤的戰鬼)   2023-03-11 08:59:00
不如這樣問好了:你怎麼用這個達成省工的?
作者: SALEENS7LM (我愛我婆,更愛你的)   2023-03-11 09:00:00
3D已經夠用了
作者: arrenwu (鍵盤的戰鬼)   2023-03-11 09:00:00
這個要修改看起來沒有比較容易啊
作者: AustinPowers (Yeah~baby Yeah~~)   2023-03-11 09:02:00
這影片比較像機器人夢境,印象派
作者: EXIONG (E雄)   2023-03-11 09:18:00
3D比2D便宜多了
作者: s9006512345 (lu00041561)   2023-03-11 09:20:00
現在最新的是這個http://b23.tv/ajFqXGu無渲染粗模3d轉2d
作者: philip81501 (笑口常開0口0)   2023-03-11 09:24:00
不就很多圖連在一起而已??
作者: reader2714 (無毀的湖光)   2023-03-11 09:39:00
動畫就是很多圖連在一起啊
作者: holycity (迪兒~)   2023-03-11 09:50:00
這已經吊打1930年代米老鼠黑白動畫了
作者: arrenwu (鍵盤的戰鬼)   2023-03-11 10:22:00
https://youtu.be/3hoThry5WsY 是被1930米老鼠動畫屌打
作者: SALEENS7LM (我愛我婆,更愛你的)   2023-03-11 10:24:00
以前的迪士尼動畫真的很鬼
作者: arrenwu (鍵盤的戰鬼)   2023-03-11 10:25:00
那動畫現在看還是滿好看的XD
作者: funofHD (天地重錢錢當先)   2023-03-11 10:57:00
動畫要有背景,光正確透視就難到不行了,分鏡也都是不連續有節奏跟斷點的,頂多拿來參考好用,要當真的動畫還早現在顏色也不一定是對的,線條也不連續,要怎麼當真的動畫
作者: Meuf (Milk Egg pUFf)   2023-03-11 11:19:00
用英文的看不懂右上角水印不知道要怎麼找資料就算了你用中文的明明搜一下就可以看的原製作者的說明了……複製說明過來:這是用NovelAI的img2img功能生成的,每幀畫面的prompt均為DeepDanbooru識别(取0.75概率以上的輸出),為保證畫面一致性,設置前後幀之間seed差為1,全影片seed差最大為200。由於是自動識别畫面内容,因此會出現畫錯了或者畫崩了這種情况(手動生成可以一直抽卡抽到满意,但是太耗時)。整个影片一共37674幀(編輯前),生成共耗時1:18:18(硬體:i9-12900K, 32GB DDR5 4800Hz, RTX 3090)
作者: attacksoil (擊壤)   2023-03-11 11:47:00
感謝樓上分享 但不知道你是想表達什麼?
作者: BITMajo (BITMajo)   2023-03-11 12:01:00
這影片感覺就是用MMD版Bad Apple弄的吧...用3D動畫成品去生成2D動畫,Genius,真他媽天才
作者: Meuf (Milk Egg pUFf)   2023-03-11 12:03:00
原文影片單純使用img2img,如果是像你說的只需要骨架,至少也用個control net吧。我不知道某樓是不是基於這個理由噓你但你的理解的確有哪裡怪怪的
作者: BITMajo (BITMajo)   2023-03-11 12:09:00
所以AI玩家為了好玩做了出來,然後有人當真(?)了這究竟是人性的扭曲還是社會的腐敗
作者: Innofance (Innofance)   2023-03-11 12:33:00
你只用control net骨架的話你還得先訓練模型,不然你角色做出來就算同角色差異依然會很大,然後還得請3D動畫師做3D動畫或是花大錢架動補,再一張張生成。每一幀生成出來之後,還得要在沒有圖層的情況下去修正每一張畫面的抖動感i2i都會有細節差異了
作者: arrenwu (鍵盤的戰鬼)   2023-03-11 12:40:00
成品看起來有很大的改善空間沒錯工具部分不知道訓練起來會花多少時間目前這情況有點像是在反應ML模糊比對的特質
作者: Meuf (Milk Egg pUFf)   2023-03-11 12:47:00
https://www.nicovideo.jp/watch/sm41473071有看到另一個應該也是想處理畫面抖動感的,不過結果上只能說還有很大的進步空間XD果然還是從增進AI繪製角色的穩定度下手比較治本
作者: theskyofblue (天空藍)   2023-03-11 14:48:00
那是之前的吧 現在願意花時間可以做出臉不太會壞的

Links booklink

Contact Us: admin [ a t ] ucptt.com