激情六月丁香婷婷|亚洲色图AV二区|丝袜AV日韩AV|久草视频在线分类|伊人九九精品视频|国产精品一级电影|久草视频在线99|在线看的av网址|伊人99精品无码|午夜无码视频在线

高校合作1:010-59833514 ?咨詢電話:400-810-1418 服務(wù)與監(jiān)督電話:400-810-1418轉(zhuǎn)接2

從個(gè)人到集體,邁向更多元的3D人體動(dòng)作生成技術(shù)

發(fā)布時(shí)間:2024-06-27 13:09:22 瀏覽量:176次

近期關(guān)注的3D人體動(dòng)作生成技術(shù)受到越來越多的關(guān)注,探索更加全面且多樣化的動(dòng)作生成方法。新技術(shù)基于GAN和Transformer框架,不僅支持單人動(dòng)作生成,還能輕松拓展到多人動(dòng)作生成。通過構(gòu)建GTA Combat數(shù)據(jù)集,填補(bǔ)了現(xiàn)有復(fù)雜場(chǎng)景交互數(shù)據(jù)集的不足。

ActFormer框架支持多種類型的人體動(dòng)作表征,實(shí)現(xiàn)單人/多人動(dòng)作生成

點(diǎn)擊咨詢

簡(jiǎn)介

3D人體動(dòng)作生成是計(jì)算機(jī)視覺和圖形學(xué)中的熱門話題,特別是近期的文本描述生成人體動(dòng)作研究更受關(guān)注。現(xiàn)有工作局限于某些人體表征,忽略多人動(dòng)作生成,因此需要更通用的框架支持多種人體動(dòng)作表征和單人/多人動(dòng)作生成。

具體方法

Actformer框架圖

Actformer可以生成含有多個(gè)個(gè)體的人體動(dòng)作序列,支持骨架坐標(biāo)或SMPL參數(shù)模型表示。單人動(dòng)作生成需要考慮時(shí)序連貫性,采用高斯過程隱式先驗(yàn)和Transformer生成網(wǎng)絡(luò)。

多人動(dòng)作生成通過交互Transformer和時(shí)序Transformer結(jié)構(gòu)實(shí)現(xiàn),共享隱式表征,保證生成結(jié)果同步。

生成過程采用生成對(duì)抗訓(xùn)練,通過條件Wasserstein GAN損失函數(shù)訓(xùn)練。實(shí)驗(yàn)中,考慮了人的全局位移并應(yīng)用了數(shù)據(jù)增強(qiáng)方案。

GTA Combat數(shù)據(jù)集

為彌補(bǔ)多人交互數(shù)據(jù)集的缺乏,基于GTA-V游戲引擎合成了多人打架數(shù)據(jù)集,保證交互真實(shí)感和豐富隨機(jī)性。

GTA Combat數(shù)據(jù)集概況

實(shí)驗(yàn)

在多個(gè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),證明了算法的有效性和泛化性。評(píng)測(cè)使用動(dòng)作識(shí)別準(zhǔn)確率和FID分?jǐn)?shù)作為量化指標(biāo),結(jié)果表明算法效果優(yōu)異。

單人動(dòng)作生成結(jié)果對(duì)比

多人動(dòng)作生成結(jié)果對(duì)比

NTU-1P上的網(wǎng)絡(luò)模塊消融實(shí)驗(yàn)

NTU-2P上的網(wǎng)絡(luò)模塊消融實(shí)驗(yàn)

多人交互編碼消融實(shí)驗(yàn)

可視化結(jié)果

點(diǎn)擊咨詢

結(jié)論

繼續(xù)關(guān)注3D人體動(dòng)作生成領(lǐng)域的發(fā)展,新技術(shù)展示了巨大的潛力。歡迎加入我們共同探索人體動(dòng)作/交互的理解與生成領(lǐng)域。

參考文獻(xiàn):
- Guo, Chuan, et al. “Action2motion: Conditioned generation of 3d human motions.” Proceedings of the 28th ACM International Conference on Multimedia. 2020.
- Petrovich, Mathis, Michael J. Black, and Gül Varol. “Action-conditioned 3D human motion synthesis with transformer VAE.” Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021.
- Yan, Sijie, et al. “Convolutional sequence generation for skeleton-based action synthesis.” Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019.
- Yan, Sijie, Yuanjun Xiong, and Dahua Lin. “Spatial temporal graph convolutional networks for skeleton-based action recognition.” Proceedings of the AAAI conference on artificial intelligence. Vol. 32. No. 1. 2018.
- Loper, Matthew, et al. “SMPL: A skinned multi-person linear model.” ACM transactions on graphics (TOG) 34.6 (2015): 1-16.

點(diǎn)擊咨詢

熱門課程推薦

熱門資訊

請(qǐng)綁定手機(jī)號(hào)

x

同學(xué)您好!

您已成功報(bào)名0元試學(xué)活動(dòng),老師會(huì)在第一時(shí)間與您取得聯(lián)系,請(qǐng)保持電話暢通!
確定