申请/专利权人:南京理工大学
申请日:2019-11-04
公开(公告)日:2020-02-28
公开(公告)号:CN110853670A
主分类号:G10L25/12(20130101)
分类号:G10L25/12(20130101);G10L25/24(20130101);G10L25/63(20130101);G06N3/04(20060101);G06N3/08(20060101)
优先权:
专利状态码:有效-授权
法律状态:2023.10.17#授权;2020.03.24#实质审查的生效;2020.02.28#公开
摘要:本发明公开了一种音乐驱动的舞蹈生成方法,包括以下几个方面:1收集了一个舞蹈数据集;2对音乐和舞蹈序列进行高级特征的提取;3)提出了一个全新的跨域序列对序列学习框架,用于现实舞蹈的生成。本发明的方法不仅效率高,准确率也得到了提高;模型更复杂,模型体积小,计算速度快;预测过程更加简易,可以快速地将音乐与舞蹈序列结合。
主权项:1.一种音乐驱动的舞蹈生成方法,其特征在于,包括设计深度神经网络、训练神经网络和测试神经网络三个过程:设计神经网络过程,包括以下步骤:1设计神经网络的主要模块Featuremodule和Seq2Seqmodule;2设计神经网络的层数和输入参数;训练神经网络过程,包括以下步骤:3对数据集预处理,将其转换成跨域序列分析LSTM-SA网络的标准输入;4初始化神经网络的参数;5通过不断迭代前向传播过程、反向传播过程训练神经网络模型;测试神经网络过程,包括以下步骤:6输入测试音乐,利用由训练过程得到的神经网络模型预测对应的舞蹈序列;7根据预测结果,将其与测试的音乐合成对应的舞蹈序列视频。
全文数据:
权利要求:
百度查询: 南京理工大学 音乐驱动的舞蹈生成方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。