建网站怎么上线,莆田seo全网营销,固原市住房和城乡建设厅网站,吉林网站建设代理渠道文 | 御坂弟弟出品 | OSC开源社区#xff08;ID#xff1a;oschina2013#xff09;谷歌开源了其基于 AIST 的 3D 舞蹈生成模型 FACT。该模型不仅可以学习音乐-运动对应关系#xff0c;还可以生成以音乐为基础的 3D 运动序列。此前#xff0c;谷歌层发布了大规模的多模态 3… 文 | 御坂弟弟出品 | OSC开源社区IDoschina2013谷歌开源了其基于 AIST 的 3D 舞蹈生成模型 FACT。该模型不仅可以学习音乐-运动对应关系还可以生成以音乐为基础的 3D 运动序列。此前谷歌层发布了大规模的多模态 3D 舞蹈动作数据集 AIST它包含了 1408 个序列中 5.2 小时的 3D 舞蹈动作涵盖了 10 种舞蹈流派每个序列都包括已知相机姿势的多视角视频。而 FACT 模型则可以使用使用这些数据从音乐生成 3D 舞蹈甚至可以帮助增强一个人的编舞能力。根据谷歌描述该模型首先使用单独的运动和音频转换器对种子运动和音频输入进行编码然后将嵌入连接起来并发送到跨模态转换器该转换器学习两种模态之间的对应关系并生成 N 个未来的运动序列然后使用这些序列以自我监督的方式训练模型。在测试时将此模型应用于自回归框架其中预测的运动作为下一代步骤的输入从而使 FACT 模型能够逐帧生成长距离舞蹈动作。此外谷歌还解释了 FACT 涉及的三个关键设计选择这些选择对于从音乐中产生逼真的 3D 舞蹈动作至关重要包括所有转换器都使用全注意掩码、训练模型会预测当前输入之外的 N 个未来而不仅仅是下一个动作以及采用了一个深度的12层跨模式转换模块。最终FACT 表现出了较好的运动质量、生成多样性、以及节拍对齐分数。目前用于训练的数据 AIST、FACT 模型代码以及一个经过训练的模型均已发布。END觉得不错请点个在看呀