不少遊戲初期公布的實機技術demo與最終成品有明顯畫質落差,為什麼?
本文將藉由說明在初期技術展示與最終成品階段的技術差別,來回答這個問題
順便介紹一些The Last of Us Remastered (PS4)壓榨硬體資源的技術
簡而言之:遊戲最終成品,通常所需運算資源種類與量,會比初期技術展示多
一個AAA遊戲成品在實機執行的時候,運算資源大致分配給以下幾項作業
1. 遊戲機制(CPU)
2. AI(CPU)
3. 物理(CPU and/or GPU)
4. 動畫(CPU)
5. 粒子(CPU and/or GPU)
6. 繪圖邏輯(CPU)
7. 繪圖執行(GPU)
初期實機技術demo,通常不會有多少1/2,可能會有3
4不會像最終成品消耗CPU與記憶體
所以大部分的運算資源都可以用在5/6/7
不要小看1/2/3消耗的資源量
這幾項在最終成品的資源消耗可以佔到CPU的50%以上
所以4/5/6/7能夠使用的硬體資源(粗估)只剩下初期技術demo的50%
如果在製作初期實機技術demo的時候
把100%硬體資源拿來展現4/5/6/7
那麼後來新加入1/2/3的資源消耗,勢必會產生"視覺上縮水"的情況
為了初期吸引觀眾目光,這幾乎是必然的結果
這樣是否表示AAA遊戲開發者不誠實? 見仁見智
不管是初期技術展示還是遊戲成品,硬體資源一定是幾乎被榨光的
製作初期demo的時候是否可以估計到之後會額外用到的資源? 非常難
不管是哪家工作室,應該都不想只用50%以下的硬體資源做技術展示demo吧
我個人是有了以上的認知之後
看到初期技術demo與最終成品的畫質落差
雖然會失望,但覺得比較可以接受這個事實了
接下來介紹TLOUR的一些壓榨硬體資源的技術
之前有提到,Naughty Dog為了從PS3跨到PS4
重新設計了一個平行運算的系統
負責人Christian Gyrling於今年GDC有個專題講座
強烈推薦給有興趣的資工領域朋友
影片連結 http://bit.ly/1eX5mb1
投影片連結 http://bit.ly/1HgtGQ9
TLOUR的硬體資源配置,可分為以下三種
1. 遊戲邏輯(CPU) 包含:遊戲機制、AI、物理、動畫、粒子
2. 繪圖邏輯(CPU) 生成繪圖指令,丟給GPU執行
3. 繪圖執行(GPU) 執行2生成的繪圖指令
一個單執行序的遊戲
1/2/3是串在一起,在同一個frame內線性依序執行的
如果要達到60fps,那1/2/3總共的運算時間就不可以超過16ms
<A方案>
CPU 遊戲邏輯 -> 繪圖邏輯
GPU -> 繪圖執行
|