發(fā)布時間:2023-12-19 10:23:44 瀏覽量:228次
UE5核心功能與開發(fā)路線解析。 |
整理/以撒
在今年,UE5的新技術逐漸走入了游戲從業(yè)者的視野中。不管是官方放出的兩次Demo,還是《黑神話:悟空》的新實機演示,都讓不少人有了摩拳擦掌的感覺。
與此同時你可能也注意到,許多廠商都已經(jīng)開始布局UE5了。舉幾個例子:騰訊天美的兩款3A級開放世界項目、NExT Studios的火星題材項目、米哈游的機甲開放世界,以及靈游坊的兩款主機產(chǎn)品……等等。
盡管看起來勢頭很足,但對我們來說,UE5的各項技術仍然顯得有些不可捉摸——它到底能做到什么?相比以前有什么樣的進步?在具體流程中又是如何實現(xiàn)的?
好吧,這些硬核的技術細節(jié),或許不是誰都能看懂的。但如果你想為新項目的引擎選擇找到參考、樹立新的學習目標,抑或是單純地湊湊熱鬧,了解一下行業(yè)前沿知識,都可以試著往下啃啃。
在今天由騰訊游戲?qū)W堂舉辦的第五屆騰訊游戲開發(fā)者大會(Tencent Game Developers Conference ,即 TGDC)上,來自Epic Games China首席引擎開發(fā)工程師王禰,分享了有關UE5的新功能,主要包括Nanite(可制造大量多邊形)和Lumen(更好的全局光照效果)等引擎特性。
以下為經(jīng)過整理的分享內(nèi)容:
大家好,今天我主要為大家介紹UE5的新功能。當然,UE5有太多新功能了,我會挑大家最關心的Nanite和Lumen多講一些。
在開發(fā)UE5的時候,我們主要有三大目標:提高各方面的渲染品質(zhì),讓數(shù)字世界變得更加動態(tài),這是在提高整個虛擬世界構建和表現(xiàn)的上限;同時我們也希望提供更多更豐富易用的工具、提高開發(fā)和迭代的效率、改善用戶編輯和創(chuàng)造的體驗,也就是降低使用門檻。
相比UE4,UE5做了大量改進。主要包括Nanite和Lumen這些渲染技術,整體構建大世界的工具,以及底層對渲染大量對象生成Proxy Mesh的技術。
在協(xié)同工作方面,改進包括管理大量資產(chǎn)的性能、編輯器和用戶體驗、次世代的一些動畫技術Chaos、網(wǎng)絡同步的物理系統(tǒng),以及一些全新模塊、游戲框架、AI集群系統(tǒng)、進一步完善的Niagara系統(tǒng)以及各種音頻模塊,像Meta Sound之類的功能都有非常大的改善。
01
在今年5月,我們用古代山谷Demo展示了UE5 EA版本的主要功能。首先就是我們主打功能之一的Nanite,它是一種全新的Mesh表現(xiàn)形式,是一種虛擬微表面幾何體,解放了此前模型制作對大量細節(jié)的限制。在EA版本,Nanite還有很多功能并不完善,我們后續(xù)會慢慢改進。
古代山谷Demo
現(xiàn)在,Nanite可以真正用于制作影視級別的資產(chǎn)——幾百萬,甚至上億面的模型都可以直接導入引擎、高效渲染,例如照片建模、Zbrush雕刻的高模、CAD數(shù)據(jù)。我們測試過幾萬到十幾萬個百萬面以上的實例,它們每個都能在view內(nèi)能被看到的情況下,在2080s這樣的GPU上跑到60fps、1080P左右分辨率。
目前,Nanite支持的平臺主要是新一代主機和PC。相比去年我們放出來的Lumen in the land of Nanite,這項技術的品質(zhì)和效率都有不少提升,包括磁盤的編解碼效率和壓縮、支持Lightmap烘焙光照、支持可破碎物體,以及對于光追場景或物理碰撞支持自動生成一些減面、高質(zhì)量的替代Proxy mesh。
另外通過這種方式,我們還可以用解析微分法決定像素誤差,使誤差肉眼不可見。最后,我們還高效支持了多光源投影,整個Nanite管線基于GPU driven的管線產(chǎn)生,主要流程我會分這幾個部分來講。
為了讓大量對象在場景上高效剔除,我們需要把所有場景數(shù)據(jù)都送到GPU上。其實從4.22開始,引擎就慢慢在不影響上層使用的情況下,在底層做出改進了,使渲染器成為retained mode,維護了完整的GPU scene,Nanite在這個基礎上做了大量新的工作。
接下來我們簡單講講Nanite的工作機制。首先在模型導入時,我們會做一些預處理,比如按128面的cluster做切分處理。有了這些cluster以后,我們就可以在距離拉遠拉近時,做到對每個cluster group同時切換,讓肉眼看不到切換lod導致的誤差,沒有crack,同時還能對這些不同層級、細節(jié)的cluster做streaming,這其實就是Nanite最關鍵的部分。
cluster的生成主要分以下幾步:首先,原始的mesh lod0數(shù)據(jù)進來后,我們會做一個graph partition,其條件例如我希望共享的邊界盡可能少,這樣我在lock邊界做減面處理時,減面的質(zhì)量會更高一些;
第二是我希望這些面積盡可能均勻、大小一致,這樣我在lod計算誤差處理投影到屏幕上時,都是對每個cluster或cluster group一致處理。我們會把其中一組cluster合并成一個cluster group,又一次按照“l(fā)ock的邊界盡可能少、面積盡可能均勻”的條件找出,一組組cluster生成group,對這個group內(nèi)cluster的邊解鎖,等于把這組group看成一個大的cluster,然后對這組group做對半的減面。
減完面后,我們可以得到一個新的cluster誤差,我會對這個減面的group重新做cluster劃分。這時,cluster的數(shù)量在同一個group里其實就已經(jīng)減半,然后我會計算每個新的cluster誤差。大家要注意,這個過程是循環(huán)的,遞歸一直到最終值 ,對每個instance、模型只生成一個cluster為止。這里有一個比較關鍵的點:我們在減面生成每個cluster時,會通過減面算法(QEM)得到這個cluster的誤差值并存下。
除此之外,我們還會存group的誤差值,這個值其實就是更精細的那一級cluster group里cluster的最大誤差值,和我新一級里產(chǎn)生的每個cluster誤差值取maximum得到的值。這樣我就能保證這個cluster每次合并的group,去減面到上一級的group里的cluster時的誤差值,永遠是從不精細到精細慢慢上升的狀態(tài)。
也就是說,我從最根結點的cluster慢慢到最細的cluster,里面的error一定是降序排序的。這一點很重要,因為它能保證后續(xù)選擇culling和lod時,恰好是在一個cluster組成的DAG上。因為cluster會合并group,group生成打散以后在下一級里,又會有一個共享的cluster。
有了這個降序排列的誤差,我就能保證這個DAG上有一刀很干凈的cut,使我的邊界一定是跨lod的cluster group的邊界。最后,我們對這個生成的各個lod層級的cluster分別生成bvh,再把所有l(wèi)od的cluster的bvh的root,掛到總的bvh root上。
當然,這里還有很多額外處理,我現(xiàn)在沒有講,是考慮到做streaming時的一些分頁處理。這個分頁可能會對cluster group造成切割,所以cluster group,還有一些group partition的概念,我們這里不做細化。
另外,對于一些微小物體離得很遠以后的情況,我們減到最后一級cluster,其實它還是有128個面,那如果場景里非常小的東西位于很遠的地方,這又是一個模塊化的構成。我們又不能直接把它culling掉,這種情況下,我們會有另外一種Imposter atlas的方式,這里我也不展開講了。
接下來,我們看看整個Nanite在GPU上做裁剪的總體流程,它分為兩次裁剪以及光柵化。我們先用前一幀的HZB做了物件層級的Instance裁減,再做了分層級的,我剛剛說的bvh的cluster的分層級裁減。
最后裁減到它bvh的葉子節(jié)點,其實就是我們剛才說的cluster group,然后再對其中的cluster做裁減。裁減完之后,我們就會有一個特殊的光柵化過程,然后我們就能得到新的Depth Buffer,重新構建HZB,再對這個新的HZB做一遍裁減。
前面那次HZB的可見性,我們用了上一幀可見的instance來做,做完之后形成新的HZB,我們再把上一幀不可見的,在這一幀內(nèi)所有剩下的再做一遍,就能保守地保證沒有什么問題。
重新經(jīng)過光柵化后,生成到新的visibility buffer,再從visibility buffer經(jīng)過material pass,最終合入Gbuffer。具體做culling時會有一些問題,比如剛才cluster生成時我們說到過,生成cluster group的bvh結構,我們在CPU上不會知道它有多少層。
也就是說,如果我要去做的話,CPU要發(fā)足夠多的dispatch,這時比如小一點的物件,它空的dispatch就會很多,這種情況下GPU的利用率也會很低。
所以我們選擇了一種叫persistent culling的方法,利用一個persistent thread去做culling,也就是只做一次dispatch,開足夠多的線程,用一個簡單的多生產(chǎn)者、多消費者的任務隊列來喂?jié)M這些線程。
這些線程從隊列里執(zhí)行時, 每個node會在做封層級別剔除的同時產(chǎn)生新的node,也就是bvh node,Push back回新的。在可見的children的列表里,我們一直處理這個列表,直到任務為空。
這里的處理分為幾種類型:首先在一開始的node里,只有我們開始構建的bvh的節(jié)點,直到我一直做剔除,剔除到葉子節(jié)點以后,里面是個cluster group,再進入下一級,就是這個group里面所有的cluster culling。最后cluster并行獨立地判斷,自己是否被culling 掉,這里其實和剛剛lod選擇的條件是一模一樣的。
還記得我剛才說的error的單調(diào)性吧?因為這里的cluster中,所有l(wèi)od都是混合在一起的,所以我們每個cluster在并行處理時,我不知道父級關系是什么樣的,但我在每個cluster上存了自己的誤差,和我整個group在父一級上的最大誤差,所以這時我就知道,如果我自己的誤差足夠小,但是我Parent的誤差不夠小,我就不應該被culling掉。
同理,跟我共處一個cluster group的這些節(jié)點,如果它在我上一級lod里,也就是比較粗的那一級里,那它的error一定不夠大,所以上面那一級lod所在的整個group都會被拋棄掉,而選中下一個。
但是下一個里面,其實還是可能會有一些誤差太大的——它的誤差如果足夠大,就意味著它在再下一級更精細的地方,肯定屬于另外一個cluster group。所以它又在下一級的cluster group里又有一個邊界,和它下一級的cluster group邊界接起來會沒有接縫,整個cluster的選擇就是這樣并行做的。
同時,對應自己cluster group的parent,剛剛我們說了,肯定會被剔除掉。這樣就能保證我們能分cluster group為邊界,去對接不同lod層級的cluster,并使經(jīng)過culling存活下來的cluster來到特殊的光柵化階段。
由于當前圖形硬件假設了pixel shading rate,肯定是高于triangle的,所以普通硬件光柵化處理器在處理非常的微小表面時,光柵化效率會很差,完整并行也只能一個時鐘周期處理4個triangle,因為2x2像素的會有很多quad overdraw,所以我們選擇使用自己用compute shader實現(xiàn)的軟件光柵化,輸出的結果就是Visibility Buffer。
我這里列出的結構總共是64位的,所以我需要atomic64的支持,利用interlocked maximum的實現(xiàn)來做模擬深度排序。所以我最高的30位存了depth、instanceID、triangleID。因為每個cluster128個面,所以triangleID只要7位,我們現(xiàn)在其實整個opaque的Nanite pass,一個draw就能畫完生成到visibility Buffer,后續(xù)的材質(zhì)pass會根據(jù)數(shù)量,為每種材質(zhì)分配一個draw,輸出到Gbuffer,然后像素大小的三角面就會經(jīng)過我們的軟件光柵化。
我們以cluster為單位來計算,比如我當前這個cluster覆蓋屏幕多大范圍,來估算我接下來這個cluster里是要做軟件光柵化還是硬件光柵化。我們也利用了一些比如浮點數(shù)當定點數(shù)的技巧,加速整個掃描線光柵化的效率。
比如我在subpixel sample的時候是256,我就知道是因為邊長是16。亞像素的修正保證了8位小數(shù)的精度,這時我們分界使用軟光柵的邊界,剛好是16邊長的三角面片的時候,可以保證整數(shù)部分需要4位的精度,在后續(xù)計算中最大誤差,比如乘法縮放導致小數(shù)是8位、整數(shù)是4位,就是4.8。
乘法以后精度縮放到8.16,依然在浮點精度范圍內(nèi),實際的深度測試是通過Visibility buffer高位的30位的深度,利用一些原子化的指令,比如InterlockedMax實現(xiàn)了光柵化。大家感興趣可以去看看Rasterizer.ush里面有Write Pixel去做了,其實我們?yōu)榱瞬⑿械貓?zhí)行軟件光柵化和硬件光柵化,最終硬件光柵化也依然是用這個Write Pixel去寫的。
有了Visibility buffer后,我們實際的材質(zhì)pass會為每種材質(zhì)繪制一個draw call,這里我們在每個cluster用了32位的材質(zhì)信息去儲存,有兩種編碼方式共享這32位,每個三角面都有自己對應的材質(zhì)索引,支持最多每個對象有64種材質(zhì),所以需要6位去編碼。
普通的編碼方式一共有兩種,一種是fast path直接編碼,這時只要每個cluster用的材質(zhì)不超過三種就可以,比如每一種64個材質(zhì),我需要用6位來表示索引是第幾位,用掉3X6=18位還剩下14位,剛好每7位分別存第一,和第二種材質(zhì)索引的三角面片數(shù)的范圍,因為7位可以存cluster 128個面, 這是最大范圍了。
前幾個面索引用第一種,剩下的范圍用第二種,再多出來的就是第三種。當一個cluster超過3種材質(zhì)時,我們會用一種間接的slow path,高7位本來存第一種材質(zhì),三角面片的范圍的那7位,我們現(xiàn)在padding 0 剩余其中19位存到一個全局的,材質(zhì)范圍表的Buffer Index,還有6位存Buffer Length,Slow path會間接訪問全局的GPU上的材質(zhì)范圍表,每個三角面在表里面順著entry找自己在哪一組范圍內(nèi)。
這個結構里存有兩個8位三角面index開始和結束,6位(64種)材質(zhì)index,其實這種方式也很快。大家想一下,其實我們大部分材質(zhì)、模型,就算用滿64個材質(zhì),我切成小小的cluster以后,128個面里你切了好多section,超過三種材質(zhì)的可能性其實很低。
這里可以看到不同的繪制對象,它在Material Index表里面其實順序是不一樣的,我們需要重新統(tǒng)一映射材質(zhì)ID,也能幫助合并同樣材質(zhì)的shading計算開銷。
在處理Nanite的mesh pass時,我們會對每一種material ID做一個screen quad的繪制,這個繪制只寫一個“材質(zhì)深度”,我們用24位存“材質(zhì)深度”可表示幾百萬種材質(zhì),肯定是夠了。每一種材質(zhì)有一個材質(zhì)深度平面,我們利用屏幕空間的小Tile做instanced draw,用深度材質(zhì)的深度平面做depth equal的剔除,來對每種材質(zhì)實際輸出的Gbuffer做無效像素的剔除。
那為什么要切tile做instanced draw呢?因為就算用硬件做Early Z,做了rejection,也還是會耗一些時間的。所以如果在vs階段,某個tile里根本沒有的材質(zhì)的話,就能進一步減少開銷,具體可以看ExportGbuffer.usf里的FullScreenVS這里的處理。
處理完渲染部分,我們來看看串流。因為時間關系,我這里可能要稍微簡化一下:因為資源很大,我們希望占用內(nèi)存是比較固定的,有點類似VT這種概念。但是geometry對比virtual texture有特殊的challenge。
還記得之前l(fā)od選擇的時候我們說過,最終結果剛好是讓DAG上有一個干凈的Cut,所以如果數(shù)據(jù)還沒進來,這個cut就不對了,我們也不能在cluster culling時加入已有數(shù)據(jù)信息的判斷,只能在runtime去patching這個實際的數(shù)據(jù)指針。
所以我們保留了所有用來culling的層級信息,讓每個instance加載的時候都在GPU里面,只streaming實際用到的geometry的細節(jié)數(shù)據(jù)。這樣做有很多好處——在新的對象被看到的一瞬間,我們最低一級的root那一級的cluster還是有的,我們就不用一級一級請求。
并且我有整個cluster表,所以我可以在一幀中就準確知道,我feedback時實際要用到的那些cluster實際層級的數(shù)據(jù)。整個層級信息本身是比較小的,在內(nèi)存里的占用,相對來說不那么可觀。
回憶之前culling的過程可以知道,我們在streaming粒度最小的時候, 也是在cluster group層級的,所以我們的streaming會按照我剛剛說的cluster group來切配置。因為有些切割的邊界最好是在cluster group的中間,所以我們會有一些partial group的概念,在最后讓GPU發(fā)出請求。
在哪個cluster group里,我就發(fā)這個group所在的那個page。如果我是partial的切到幾個page,我就會同時發(fā)這幾個page的請求。加載完之后,我會重新在GPU上patch,我剛剛整個culling的算法,條件如果變成了是葉子節(jié)點,我剛剛說的誤差滿足條件里還有一個并行條件——是不是葉子節(jié)點。
除了真的lod0的cluster是葉子節(jié)點,還有就是我現(xiàn)在沒有填充patch完、沒有加載進來的時候,內(nèi)存里最高、最精細的那一級是什么?也是葉子節(jié)點,總體概念就是這樣的。
實際上,我們在硬盤里利用了通用的壓縮,因為大部分的主機硬件都有LZ77這類通用的壓縮格式,這種壓縮一般都是基于重復字串的index+length編碼,把長字符串和利用率高的字符串利用Huffman編碼方式。
按頻度來做優(yōu)化的,我們其實可以重新調(diào)整。比如在我們切成cluster以后,每個cluster的index buffer是高度相似的,我們的vertex 在cluster的局部位移又很小,所以我們可以做大量的position量化,用normal八面體編碼把vertex的所有index排到一起,來幫助重復字符串的編碼和壓縮。
其實我們每個三角形就用一個bit,表示我這個index是不是不連續(xù)下去要重新開始算,并且另外一個bit表示重新開始算的朝向的是減還是加,這樣頂點數(shù)據(jù)跨culster的去重,做過這樣的操作后,我們磁盤上的壓縮率是非常非常高的。當然,我們還在探索進一步壓縮的可能性。
由于時間關系, 借助Nanite其他的一些feature,尤其是Virtual Shadow Map,我們可以高效地通過Nanite去做多個view的渲染,并且?guī)秙hadow的光源——每個都有16k的shadowmap,自動選擇每個texel投到屏幕一個pixel的精度,應該在哪個miplevel里面,并且只渲染屏幕可見像素到shadowmap,效率非常高,具體細節(jié)這里就不詳細講了。
接下來我們看看Nanite未來有什么樣的計劃:盡管我們目前只支持了比如純opaque的剛體幾何類型,對于微小物體,最后我們還是會用Imposter的方式來畫,但是在超過90%的情況下,場景中其實都是全靜態(tài)對象。
所以目前的Nanite,其實已經(jīng)能處理復雜場景的渲染,在大部分情況下都能起到非常大的作用。至于那些不支持的情況,我們依然會走傳統(tǒng)管線,然后整合起來。當然,這遠沒有達到我們的目標,我們希望以后能支持幾乎所有類型的幾何體,讓場景里不再有概念,不再需要去區(qū)分哪些對象是啟用了Nanite的,包括植被、動畫、地形、opaque、mask和半透。
伴隨Nanite的研究,我們也希望達成一些新技術,比如核外光線追蹤,就是做到讓實際ray tracing的數(shù)據(jù),真的是Nanite已經(jīng)加載進來的細節(jié)層級的數(shù)據(jù)。當然,離屏的數(shù)據(jù)可能還是proxy mesh。
另外,因為我們現(xiàn)在已經(jīng)不支持曲面細分了,所以也希望在Nanite的基礎上做微多邊形的曲面細分。
02
Lumen
UE5的另一大功能Lumen,是全新的全動態(tài)GI和反射系統(tǒng),支持在大型高細節(jié)場景中無限次反彈的漫反射GI,以及間接的高光反射,跨度可以從幾公里到幾厘米,一些CVar的設置甚至可以到5厘米的精度。
美術和設計師們可以用Lumen創(chuàng)建更加動態(tài)的場景。譬如做實時日夜變化、開關手電筒,甚至是場景變換。比如炸開天花板后,光從洞里射進來,整個光線和場景變化都能實時反饋。所以Lumen改善了烘焙光照帶來的大量迭代時間損失,也不需要再處理lightmap的uv,讓品質(zhì)和項目迭代效率都有了很大提升。
為了跨不同尺度提供高質(zhì)量GI,Lumen在不同平臺上也適用不同的技術組合。但是目前Lumen還有很多功能不足正在改善。我們先來簡單了解下Lumen的大框架:為了支持高效追蹤,我們除了支持RTX硬件的ray tracing,其他情況下我們也用Lumen在GPU上維護了完整的簡化場景結構,我們稱之為Lumen scene。
其中部分數(shù)據(jù)是離線通過mesh烘焙生成一些輔助的信息,包括mesh SDF和mesh card,這里的card只標記這個mesh經(jīng)過grid切分之后,從哪些位置去拍它的一些朝向,和Bounding Box的一些標記。
利用剛剛這些輔助信息,和Nanite的多view高效光柵化生成Gbuffer,以及后續(xù)需要用到的其他數(shù)據(jù),運行時會通過兩個層面更新LumenScene:一層是CPU上控制新的Instance進來,或者一些合并的streaming的計算;另一層是更新的GPU數(shù)據(jù),以及更新LumenScene注入,直接和間接Diffuse光照到光照緩存里面。
我們會基于當前屏幕空間放一些Radiance Probe,利用比較特殊的手段去做重要度采樣。通過高效的Trace probe得到Probe里面的光照信息,對Probe的光照信息進行編碼,生成Irradiance Cache 做spatial filter。
當然,接著還會有一些fallback到global世界空間,最后再Final Gather回來,和全屏幕的bentnormal合成生成,最終全屏幕的間接光照,再在上面做一些temporal濾波。這就是我們Diffuse整個全屏的光照,最后再跟Direct光照合起來,就得到了最終的渲染結果。
Lumen的整體框架是軟件追蹤,靠Mesh SDF來做快速的Ray Tracing。在硬件允許時,我們會用RTX,這個今天不展開講。Lumen的追蹤是個Hybrid的方案,包括優(yōu)先利用HZB做屏幕空間的Trace,如果失敗的話,我們在近距離用一個全屏做Mesh SDF的Trace,這里因為Mesh SDF的instance做遍歷效率其實還比較低。
因為用bvh在GPU上訪問時,樹形結構的緩存一致性很不好,所以我們只在很近距離1.8米內(nèi)做第一層級的加速結構,這時我們利用一個簡單的Froxel去做grid劃分,快速求交所有instance的Bounding Sphere和對應cell相交結果,并存在對應cell的列表里,這是全屏做一次的。
接下來在tracing時,我每次只需要訪問當前tracing點,比如marching以后所在的位置,所在的cell就能很快算出來,然后直接查詢里面的instance列表,將第二層加速結構實際的,以及查出來列表里instance的SDF,都做一遍marching,取一個minimum值。
對于稍遠一點的,我們會對場景做一個合并生成Global的SDF,它是個clipmap。但因為提高精度以后,數(shù)據(jù)存儲等各方面每翻一倍精度會有8倍增加,我們會有一些稀疏的表達,我之后會簡單講一下。
在都沒有trace到的情況下,我們會循環(huán)Global SDF的clipmap,對每一級clipmap做loop,直到Global SDF。比如二百多米全都沒有trace到,那就是miss。當然,我們在之前的Demo里也用了RSM做最后的fallback,現(xiàn)在這個版本我們還沒有放進去。
在SDF生成時,tracing我們都會做一些保守的處理,保證不會有薄墻被穿透。SDF其實是個volumetric,按voxel間隔來采樣的生成過程,如果我的面很薄,在你的voxel精度以內(nèi),其實我們會有一些保守處理。
隨之而來的問題是,我們trace到了某個表面之后,SDF里面沒有辦法拿到我們實際需要的數(shù)據(jù),只能幫助快速找到交點位置,這個時候我們能拿到什么?近場MeshSDF時MeshId是我知道的,因為遍歷列表的時候存了;另外我還知道SDF,所以可以靠SDF的gradient算出對應的normal,但是我有ID、normal和位置,要怎樣得到我要的Radiance呢?包括Gbuffer的一些數(shù)據(jù),這時我們是沒有三角面片數(shù)據(jù)來插值計算的,沒有各種材質(zhì)的屬性,所以我們需要一種高效的參數(shù)化方法。
我們使用了一種平鋪的CubeMapTree結構:首先在Mesh導入時我們會預先處理,剛剛提到生成一組Card的描述,在runtime的時候,我們對放在地圖里的每個實例,會根據(jù)mesh的Card信息實際利用Nanite高效光柵化,生成對應的Gbuffer。
Atlas在一張大的Atlas里面,其實是幾張里面存了MRT,存了三張——包括albedo,opacity,normal,depth這樣的信息。存的這個Atlas我們叫做Surface Cache,其實就是大家最終看到的LumenScene。當然,LumenScene還會經(jīng)過SDF tracing,然后做tri-planar reprojection,這其實就是我們 tracing的結果。
我們tracing時tracing到哪個位置,就會找到它對應三個方向的Lumen card,把光柵化完的那些信息tri-planar reproject出來,得到的就是這個點要的信息。包括Gbuffer、Radiance信息。
Radiance信息從哪里來呢?是在生成這個card時,還會做直接的光照注入,然后生成它Irradiance的Atlas,并且這個Atlas中會根據(jù)維護的budget更新對應的Card,從texel出發(fā),利用GlobalSDF去trace上一幀的lighting狀態(tài),也就是上一幀LumenScene的信息。
所以我們用屏幕空間Probe去trace時,trace到的那個Irradiance cache里的東西,就是多次反彈的結果。這個Atlas里card存的cache,其實都是2的整數(shù)次冪,為了方便我們做mip。因為我們有些階段要用prefilter的mip,利用conetracing快速地做prefiltering結果的tracing。對于更遠的Ray,我們其實在trace的時候,就已經(jīng)借助的GlobalSDF,超過1.8米時,這個時候我們也沒有對應的MeshID了。
所以類似地,在對應生成GlobalSDF的clipmap時,我們也會用Surface Cache生成一個voxel Lighting Cache,也就是LumenScene更低精度的voxel的表達。這個voxel Scene就是來自Cube Map Tree預處理后,radiance合并生成出來的。
這時我們每一幀都會重新生成voxel Lighting Cache,整個Lumen的結構是持續(xù)存在GPU上的,在CPU上維護對它的增減。我們哪些東西重新Streaming進來了,視角調(diào)整以后哪些card變得可見,為了控制開銷,我會每幀固定更新一定數(shù)量的card,并且根據(jù)對應的Lighting類型,對這個Surface cache做一些裁減。對于那些tracing時不在屏幕中的shadow遮擋,我們都是靠Global SDF Trace來做的。
有了Tracing的手段,又從中獲得了想要的數(shù)據(jù)的信息后,我們就要解決最終的GI問題了。傳統(tǒng)模式中,比如Cards里存的是Surface Cache,已經(jīng)有了多次反彈的照度信息,這里我們已經(jīng)把追蹤到的表面緩存不一致的求解計算分離到Card Capture和Card光照計算部分,就只需要在屏幕空間直接來Trace Ray,Trace這些Surface Cache里的Irradiance就可以了。
傳統(tǒng)做RTX GI時,往往只能支撐1-2spp在Gbuffer發(fā)出BentNormal半球空間均勻分布的光線,如果靠SpatialTemporay,方差引導的這種濾波,在光線相對充足的情況下效果會非常好,但是當光線很不充足,譬如只有一束光從門縫或小窗口照進來時,離遠一點的地方你Trace出來的Ray能采樣到,實際有光源的地方概率太低,導致在濾波前的畫面信息實在太少,最終濾波完的品質(zhì)也是非常差、不能接受的。
我們的方法,是利用遠低于Gbuffer分辨率的Screen Space的Probe,約每16個像素,根據(jù)實際像素插值失敗的情況下,我們在格子里面還會進一步細化放置,放到一個Atlas里,我的每個Probe其實有8×8個Atlas,小的一個八面體投影的就是半球,自己World Space normal的半球,均勻分布我的立體角朝向的那個Tracing的方向,每一幀我還會對這個采樣點做一些jitter,之后再去插值。
我們也會在像素平面,將最后全屏每個像素按照BRDF重要度采樣,找周圍Screen的Probe做跟我方向一致的weight調(diào)整,再去做插值,然后在計算probe的時候,我們利用半球投到八面體的方式,存了8×8的像素全都Atlas到一起,在細化時一直往下放。
所以最壞的情況,是比如每個像素都是一個前景,下一個像素就是一個后景——這其實不太可能,只是極端情況。這種情況我就變成要細化到每個像素,又變成逐像素去做這個tracing的Probe Cache。為了避免這種情況,我們其實是粗暴地限制了整個Atlas的大小,也就是最細化的東西,我填不下就不要了。
這樣的好處是,我按照1/16的精度去做的Screen Probe,其實是1/256的精度,即使8×8我處理的像素數(shù)還是以前的1/4或者1/8,在做Spatial Filter最后每個像素插值時,我只要做Screen Probe3×3的filter,其實就相當于以前48x48的filter大小,而且效率很高。并且在求解間接的環(huán)境光蒙特卡洛積分時,可以靠上一幀這些ScreenProbe里reproject回來的Incoming Radiance的值,作為lighting的importance sampling的引導。
同樣,BRDF也可以這樣做。譬如BRDF值小于0的部分,無論入射光如何都不會貢獻出射,隨便這個方向上lighting在上一幀的incoming radiance。在這個點上有多少,這個朝向有光過來,我貢獻也是0——我不需要它,所以我最終就把這兩個東西乘到一起,作為我新的這一幀probe的importance sampling的方向。
最后,我就會根據(jù)這個方向去tracing,之后radiance會存到跟它對應起來另外一張8×8的圖里,Atlas到一起。對于小而亮的部分離的表面越遠,每幀又有jitter又有方向,引導方向不一樣。有時沒追蹤到,它的噪點就會比較多,并且trace長度越長光線的一致性也不好,所以相反離得遠的光源,相對貢獻得光照變化頻率也比較低。因為我離的很遠以后局部光有一些位移,對我這里的影響是很小的。
所以我們可以用一個世界空間的probe來處理,因為這個時候可以做大量的cache,這里我的世界空間也是一個clipmap,它也是稀疏存儲的。因為只有我Screen Space的Probe Tracing訪問不到的東西,我才會去布置更多的World Space的Probe去做更新處理,這里就不展開講了。
最終,我們需要在全分辨率的情況下做積分,這時有一個辦法,就是根據(jù)全分辨率像素得到BRDF采樣,方法就是我剛才說的,從Screen Probe里面找。比如8×8像素周圍的都去找跟它方向一致的weight去插值,但這樣噪點還是很多,所以我們其實是從它的mip里面去預處理,從filter過的結果里去找。
這樣還會有一個問題:我自己朝向的平面,比如8×8像素周圍的都去找跟它方向一致的weight去插值,所以最終我們把八面體的radiance轉(zhuǎn)成了三階球諧,這樣全分辨率的時候能非常高效的利用球諧系數(shù)做漫反射積分,這樣的結果質(zhì)量和效率都很好。
最后的最后我們又做了一次,我對每個像素都做完之后,再做一次temporal的濾波,但是會根據(jù)像素追蹤到的位置的速度和深度來決定我這個像素的變化,是不是快速移動物體區(qū)域投影過來的,來決定我這個temporal filter的強度。
我temporal filter越弱,其實就相當于前面我去采樣的時候積分起來的時候,我采樣周圍3×3 Spatial Filter效果就越強。整體上Lumen的框架就是這樣,我略過了大量細節(jié)和一些特殊處理的部分。譬如半透明物體的GI沒有講到,Spectular我也沒有特殊講,但是像spectular在粗糙度0.3到1的情況下,和這里importance sampling的diffuse其實是一致的。
在未來,我們也希望能做進一步改進,比如鏡面反射,Glossy反射我們已經(jīng)能很好處理,但是鏡面反射在不用硬件追蹤的情況下,現(xiàn)在Lumen效果還是不夠的,包括SkeletalMesh的場景表達方式、破碎物體的場景表達方式,以及更好處理非模塊化的整個物體。因為現(xiàn)在模塊化整體captured card或者SDF的各種精度處理,可能還不夠完善。
我們希望提升植被品質(zhì),以及更快速地支持光照變化,因為我們有很多hard limiter的更新,比如card數(shù)量之類的,會導致你過快更新時跟不上。最后,我們還希望能支持更大的世界,譬如可以串流SDF數(shù)據(jù),以及做GPU driven的Surface Cache。關于Lumen我們今天就先講到這里。
講完兩大招牌功能,我們快速過一下別的功能:比如最常被大家提到的大世界支持。從UE5開始我們有了更好的工具,比如World Partition就升級成了全新的數(shù)據(jù)組織方式,配合一套streaming系統(tǒng),我們不需要手動處理runtime的streaming,引擎會幫你自動切分出不同的Partition,自動處理加載策略。
而且在這個基礎上,我們又有Data Layer對于不同邏輯的處理,有World Partition Stream Policy根據(jù)layer對不同的Policy的定制,有Level Instance——可以把Level看成Actor、嵌套組成模板、模塊化搭建地圖,并且在Level Instance層級上設置Hlod的參數(shù)。
為了協(xié)同工作,我們還引入了One File Per Actor,大家每次在地圖上編輯或新增時,其實只改到了一個獨立的actor所對應的文件,文件鎖的粒度比較細,就不會去動整個地圖文件,這樣引擎也會自動幫你管理這些散文件的changelist生成。
最后,我們還做了大世界的精度支持,把整個Transform的各種計算都改到了雙精度浮點支持。另外,我們在Mobile上也做了更多支持,比如Turnkey全新的打包工作流程,移動端延遲渲染也進入了beta階段。
除此之外,iOS我們也做了很多改進,在正式版本我們新增了opengles延遲渲染管線的支持,比如mali上的pixel local storage。同時我們也加入了DFShadow支持,以及一些新的shading model:例如和pc統(tǒng)一利用Burley SSS參數(shù)驅(qū)動的移動版本的preintegrated皮膚。
同時我們終于對DXC下的半精度做了支持,而且把所有的Metal Vulkan openGLES都用DXC做了轉(zhuǎn)換。同時我們還加入了point light shadow、CSM cache和帶寬優(yōu)化過的565的RVT,做了全新的 gpu instance culling和更高效的auto-instancing等功能。
Q:UE5.0正式版會在什么時候發(fā)布?
王禰:目前預計是明年上半年,可能在4月份左右發(fā)布。
Q:UE5.0之后還會支持曲面細分嗎?
王禰:由于不少硬件平臺曲面細分效率的問題,我們打算徹底去掉。未來我們會嘗試用Nanite去做,但是目前還沒有做到。所以現(xiàn)在的workaround如果不做變形,那就只能靠Nanitemesh或者靠Virtual Heightfield Mesh來處理。
(TGDC 2021正于11月22日-24日進行直播,有興趣的讀者可以點擊下方小程序查看。)
游戲葡萄招聘產(chǎn)業(yè)記者/內(nèi)容編輯,
點擊「閱讀原文」可了解詳情
熱門資訊
探討游戲引擎的文章,介紹了10款游戲引擎及其代表作品,涵蓋了RAGE Engine、Naughty Dog Game Engine、The Dead Engine、Cry Engine、Avalanche Engine、Anvil Engine、IW Engine、Frostbite Engine、Creation引擎、Unreal Engine等引擎。借此分析引出了游戲設計領域和數(shù)字藝術教育的重要性,歡迎點擊咨詢報名。
2. 手機游戲如何開發(fā)(如何制作傳奇手游,都需要準備些什么?)
?如何制作傳奇手游,都需要準備些什么?提到傳奇手游相信大家都不陌生,他是許多80、90后的回憶;從起初的端游到現(xiàn)在的手游,說明時代在進步游戲在更新,更趨于方便化移動化。而如果我們想要制作一款傳奇手游的
3. B站視頻剪輯軟件「必剪」:免費、炫酷特效,小白必備工具
B站視頻剪輯軟件「必剪」,完全免費、一鍵制作炫酷特效,適合新手小白??靵碓囋嚕?/span>
游戲中玩家將面臨武俠人生的掙扎抉擇,戰(zhàn)或降?殺或放?每個抉定都將觸發(fā)更多愛恨糾葛的精彩奇遇?!短烀嬗肪哂卸嗑€劇情多結局,不限主線發(fā)展,高自由...
5. Bigtime加密游戲經(jīng)濟體系揭秘,不同玩家角色的經(jīng)濟活動
Bigtime加密游戲經(jīng)濟模型分析,探討游戲經(jīng)濟特點,幫助玩家更全面了解這款GameFi產(chǎn)品。
6. 3D動漫建模全過程,不是一般人能學的會的,會的多不是人?
步驟01:面部,頸部,身體在一起這次我不準備設計圖片,我從雕刻進入。這一次,它將是一種純粹關注建模而非整體繪畫的形式。像往常一樣,我從Sphere創(chuàng)建它...
7. 3D動畫軟件你知道幾個?3ds Max、Blender、Maya、Houdini大比拼
當提到3D動畫軟件或動畫工具時,指的是數(shù)字內(nèi)容創(chuàng)建工具。它是用于造型、建模以及繪制3D美術動畫的軟件程序。但是,在3D動畫軟件中還包含了其他類型的...
想讓你的3D打印模型更堅固?不妨嘗試一下Cura參數(shù)設置和設計技巧,讓你輕松掌握!
?三昧動漫對于著名ARPG游戲《巫師》系列,最近CD Projekt 的高層回應并不會推出《巫師4》。因為《巫師》系列在策劃的時候一直定位在“三部曲”的故事框架,所以在游戲的出品上不可能出現(xiàn)《巫師4》
10. 如何自己開發(fā)一款游戲(游戲開發(fā)入門必看:五大獨立游戲開發(fā)技巧)
?游戲開發(fā)入門必看:五大獨立游戲開發(fā)技巧無論您是剛剛起步開發(fā)自己的第一款游戲,還是已經(jīng)制作了幾款游戲,本篇文章中的5大獨立游戲開發(fā)技巧都可以幫助您更好地設計下一款游戲。無論你對游戲有著什么樣的概念,都
同學您好!