作者:CV君
Transformer又又来了!!!
出自论文:
Learn to Dance with AIST : Music Conditioned 3D Dance Generation
来自谷歌等单位的学者提出一个基于 transformer 的学习框架,用于以音乐为条件的3D舞蹈生成。设计了一个全新的网络框架,并验证得出获得高质量结果的关键。其中组件之一是深度跨模态 transformer,可以很好地学习音乐和舞蹈运动之间的相关性,并且具有 future-N 机制的全注意力在产生长距离 non-freezing 运动中至关重要。
合成 demo:https://v.qq.com/x/page/l3223j37j92.html
AIST 数据集AIST 舞蹈运动数据集是从 AIST Dance Video DB 构建的。对于多视角视频,设计一个完美的 pipeline 来估计摄像机参数、3D人体关键点和3D人体舞蹈运动序列。
通过以上的标注,AIST 支持以下任务。
数据集以不同的方式被分割成训练/验证/测试集,用于不同的目的。
对于人类姿势估计和人类运动预测等任务,作者建议使用表 1 中描述的数据分割。
对于处理运动和音乐的任务,如音乐条件运动生成,建议使用表 2 中描述的数据分割。
视频 | https://v.qq.com/x/page/w3223ocoqrz.html
作者 | Ruilong Li, Shan Yang, David A. Ross, Angjoo Kanazawa
单位 | 南加利福尼亚大学;谷歌;伯克利
论文 | https://arxiv.org/abs/2101.08779
数据集 | https://google.github.io/aistplusplus_dataset/
主页 | https://google.github.io/aichoreographer/
Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved