Re: [奶子] AI畫的婚紗大奶(圖多)

作者: smart0eddie (smart0eddie)   2022-10-01 18:18:13
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.25.90.235 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1664602340.A.C44.html
推 twmacaron: AI很人性化 只注意到奶子 10/01 13:33
推 BruceChang: 人畫手都會看自己的手 所以.... 10/01 13:33
→ aria0520: 大家比較在意胸只能有兩顆 手比較隨意 10/01 13:34
→ wahaha99: 但手指形狀複雜,所以還沒學好 10/01 13:35
→ Koyomiiii: 手指大家不一定會細看 奶子大家一定看 而且也不會po 10/01 13:37
→ emptie: 有些人類是真的有6指啊 10/01 13:38
推 whitekyubi: 角度不同,有的手指會被擋起來吧?猜的 10/01 13:42
推 silverowl: 同時出現在畫面上的手指有0~10根,而奶子大多只有一對 10/01 13:42
→ whitekyubi: 雖然也不能解釋為什麼有6789根手指的出現 10/01 13:42
推 arrenwu: 這不太需要解釋吧 訓練過程中我不覺得工程師會特別讓 10/01 13:44
→ arrenwu: AI架構中有「人類手指10根才正常」的概念 10/01 13:44
→ arrenwu: DeepLearning 會強有一個特質就是讓AI架構自己決定什麼 10/01 13:45
→ arrenwu: 特徵比較重要 10/01 13:45
推 tchaikov1812: 人的手指超複雜,比兩個胸部複雜百倍 10/01 14:06
推 johnny3: ai沒有立體的概念 不知道為什麼手指不同角度有不同數量 10/01 14:07
→ johnny3: 學習起來就是有時候很多有時候很少 不知道為什麼 10/01 14:07
→ johnny3: 不像眼睛 什麼角度看幾乎都兩顆 10/01 14:08
推 raincole: AI 其實也不「知道」奶子有兩顆啊 你這個「知道」也未免 10/01 14:35
→ raincole: 給 AI 太多 credit 了吧 10/01 14:36
推 xiaohua: 你就知道可悲的人類餵了多少奶圖了 10/01 15:25
→ xiaohua: 餵食圖片中,奶子含量遠遠大於手手 10/01 15:26
那如果是要特化專門生成人類色圖的模型
除了目前的語言解析模型去分析輸入的文字
能不能額外加個人體生成模型
先讓AI生成人體的3D體態
再轉成2D圖
訓練3D人體的時候就可以額外告訴AI
一般人的體型骨架
也能讓AI學到立體的人體資訊
有沒有資工大神可以開示一下?
作者: twmacaron (bamboo)   2021-10-01 13:33:00
AI很人性化 只注意到奶子
作者: BruceChang (=A5e)   2021-10-01 13:33:00
人畫手都會看自己的手 所以....
作者: aria0520 (紫)   2021-10-01 13:34:00
大家比較在意胸只能有兩顆 手比較隨意
作者: wahaha99 (此方不可長)   2021-10-01 13:35:00
但手指形狀複雜,所以還沒學好
作者: Koyomiiii (Koyomi)   2021-10-01 13:37:00
手指大家不一定會細看 奶子大家一定看 而且也不會po
作者: emptie ([ ])   2021-10-01 13:38:00
有些人類是真的有6指啊
作者: whitekyubi (狐狸)   2021-10-01 13:42:00
角度不同,有的手指會被擋起來吧?猜的
作者: silverowl (Raven)   2021-10-01 13:42:00
同時出現在畫面上的手指有0~10根,而奶子大多只有一對
作者: arrenwu (鍵盤的戰鬼)   2021-10-01 13:44:00
這不太需要解釋吧 訓練過程中我不覺得工程師會特別讓AI架構中有「人類手指10根才正常」的概念DeepLearning 會強有一個特質就是讓AI架構自己決定什麼特徵比較重要
作者: tchaikov1812 (柴犬夫斯基)   2021-10-01 14:06:00
人的手指超複雜,比兩個胸部複雜百倍
作者: johnny3 (キラ☆)   2021-10-01 14:07:00
ai沒有立體的概念 不知道為什麼手指不同角度有不同數量學習起來就是有時候很多有時候很少 不知道為什麼不像眼睛 什麼角度看幾乎都兩顆
作者: raincole (冷魚)   2021-10-01 14:35:00
AI 其實也不「知道」奶子有兩顆啊 你這個「知道」也未免給 AI 太多 credit 了吧
作者: xiaohua (大花)   2021-10-01 15:25:00
你就知道可悲的人類餵了多少奶圖了餵食圖片中,奶子含量遠遠大於手手
作者: emptie ([ ])   2022-10-01 18:20:00
可是有些我們覺得賞心悅目的2d圖透視並不是最正確的
作者: DAEVA   2022-10-01 18:27:00
先決定空間和3d人偶姿勢再上色這樣
作者: diabolica (打回大師再改ID)   2022-10-01 18:41:00
我滿懷期待的點進來 啪 沒了
作者: chang1248w (彩棠)   2022-10-01 21:11:00
問題可能有幾個,一個是在3d空間中生成物件,包含材質啊 形狀啊 光影渲染啊什麼的然後要把這東西轉換成2d畫面,本身就是一門大學問最後還得要球整個過程可導(微分)難易度可想而知: totally bullshit因此大概三五年前,試圖在2d圖片上融入了manifold learning 的概念模型該學的是在高維度空間中的低維manifold可以把它想成一輛關於車子的影片,車子的像素在整個影片畫質1920x1080x3那麼高維度的空間中變化,但其實車子的概念只在三個空間維度加一個旋轉和一個時間,也就是五個維度上活動模型該做的就是在1920*1080*3找出那5維度的車子概念的變化脈絡,並把它定義為車子這個概念是現在深度學習的基石所以其實並不一定要在3d空間才能引入骨架的資訊,問題是這個資訊怎麼融入模型welcome contribution另外有個領域在做從幾個角度的相片來做3d建模去年的sota印象中是在3d空間裡建模光的通過率還有材質,有物體的地方通過率就低採樣的時候他們用矩陣掃過空間,利用被擋下來的機率做材質的期望值並記錄在矩陣上,來達成可微並高效的ray tracing

Links booklink

Contact Us: admin [ a t ] ucptt.com