Re: [問題] 虛擬Youtuber的成本?

作者: vanjr (van)   2018-01-26 22:58:52
: → lordmi: AI臉是有staff在後台控制的,即時擷取目前還不夠
絆愛的表情應該不是後製出來的。
請看下面的影片
https://www.youtube.com/watch?v=X9AR0vyOQSw
這是去年三月的AnimeJapan 2017,絆愛在現場和觀眾互動的攤位,
當時絆愛在日本完全沒有知名度,所以攤位前幾乎沒有人,
絆愛必需經常和現場路過的遊客搭話,請他們過來和自己玩遊戲,
飄溢著一種尷尬的悲壯感XD
影片是一位韓國的絆愛粉到日本拍攝的,當時絆愛在韓國反而比較名......
可以看到影片48秒左右的時候,絆愛露出的ジト目(半目)表情,
這是實時反應出來的,不是後製調整出來的,
也不太可能是由另一位工作人員來按下控制表情的按鈕,
因為現場無法預測回答的語句和語氣,不可能預測該用什麼表情來回答才好。
唯一有可能實時按下控制表情的,只有絆愛自己,
但是要一邊流暢地回答觀客的問題,一邊記著要按下哪一個按鈕,
這是非常困難的,而且影片看到絆愛的雙手也沒有出現額外的控制動作,
所以絆愛的表情應該是用某種方法直接捕捉到的。
這是比較早期的影片,後來絆愛的動作捕捉還有改進,
現在的流暢度和延遲感都比那時好很多,
看現在的直播會更明顯。
作者: Xhocer (以前也很快樂)   2018-01-26 23:00:00
現在辦互動的話要到大舞台了
作者: as3366700 (Evan)   2018-01-26 23:02:00
韓粉投資成功
作者: anumber (Everlasting GuiltyCrown)   2018-01-26 23:04:00
不就facerig這種技術 阿婆也有搞animoji
作者: jimmycool (北七)   2018-01-26 23:10:00
滿多paper在做這種事 e.g.https://www.youtube.com/watch?v=eOjzC_NPCv8
作者: LiNcUtT (典)   2018-01-26 23:12:00
我也認為是這樣,AI的表情比其他VT生動且自然但肢體上就沒特別好,不只手指,她手臂其實也常骨折一般VT的表情擷取幾乎都是用facerig,但AI的我猜不是特別tune過,就是用了非facerig的軟體來搞
作者: as3366700 (Evan)   2018-01-26 23:18:00
可以抹殺一個人存在的背景,用出什麼超常規技術也是很合理的
作者: togs (= =")   2018-01-26 23:18:00
絆愛不就是真實存在的AI?
作者: guogu   2018-01-26 23:21:00
手臂那些很困難 因為3D模組的身體比例會跟真人有差距
作者: LiNcUtT (典)   2018-01-26 23:22:00
但相比之下未來明就"比較"少出現肢體骨折的現象
作者: a62511 (alex)   2018-01-26 23:45:00
作者: kamir (小K)   2018-01-27 00:00:00
未來明的模型一定有黑科技
作者: zop (ㄞ肝ㄞ肝~一元二十罐~)   2018-01-27 00:08:00
如果以動作來看,我看是有個人穿動態衣即時偵測人體跟電腦動畫繪圖最大的不同就是會有細微自然的顫動,人不會動一隻手就只有動一隻手,而是全身或多或少全都在動,AI很明顯不是動畫操作,穿動態衣跟臉部偵測,配上臉部表情篩選,會比製作動畫來的快速準確。
作者: LiNcUtT (典)   2018-01-27 00:15:00
VT大多都是用動態偵測啊,很少用動畫的吧?一般都是用Neuron這套,不過未來明的感覺不太一樣搞不好有穿動態衣(高價解),其他的可能就不一定了便宜的做法是用wii remote,Kinect之類的
作者: kamir (小K)   2018-01-27 00:21:00
用Wii Remote像是野良猫那樣吧,不是很自然。
作者: LiNcUtT (典)   2018-01-27 00:23:00
對阿,但是建構成本很低,一般個體戶都是用便宜版的像上篇提到的最低價作法25萬羊,其中Neuron就佔20萬剩下的就facerig,wii remote這些,不然5萬根本搞不出來
作者: tw15 (巴拉巴拉)   2018-01-27 02:20:00
我非常在意1:33秒的拍手是穿過去的XDD
作者: Siu (薈)   2018-01-27 17:51:00
戴頭盔玩BIO7還能眼睛有變化

Links booklink

Contact Us: admin [ a t ] ucptt.com