申请/专利权人:西华大学
申请日:2024-01-24
公开(公告)日:2024-04-26
公开(公告)号:CN117933265A
主分类号:G06F40/30
分类号:G06F40/30;G06F40/205;G06F16/35
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.05.14#实质审查的生效;2024.04.26#公开
摘要:本发明涉及多模态情感分析技术领域,具体涉及基于多视角的双极性相似融合网络的多模态情感分析方法,包括如下步骤:S1:将上下文内容和实体内容输入到预训练模型BERT中,得到文本上下文特征Hc和实体特征He;S2:提取面向对象的图像特征Ho,以及面向场景的图像特征Hs;S3:构建跨模态双极相似性计算模块,通过跨模态双极相似性计算模块得到视觉特征Hvisual;S4:构建视觉相关的文本表示模块,通过视觉相关的文本表示模块得到文本特征Htext;S5:构建多模态表示模块,通过多模态表示模块得到多模态特征Hfinal;S6:使用一个非线性转换层和softmax分类器计算多模态特征Hfinal的情感概率取值,本发明,能够充分理解图像,提升图文多模态情感分析的识别精度。
主权项:1.基于多视角的双极性相似融合网络的多模态情感分析方法,其特征在于,包括如下步骤:S1:将上下文内容和实体内容输入到预训练模型BERT中,得到文本上下文特征Hc和实体特征He;S2:提取面向对象的图像特征Ho,以及面向场景的图像特征Hs;S3:构建跨模态双极相似性计算模块,通过跨模态双极相似性计算模块得到视觉特征Hvisual;S4:构建视觉相关的文本表示模块,通过视觉相关的文本表示模块得到文本特征Htext;S5:构建多模态表示模块,通过多模态表示模块得到多模态特征Hfinal;S6:使用一个非线性转换层和softmax分类器计算多模态特征Hfinal的情感概率取值,计算过程如下:py|Hfinal=softmaxWTHfinal+b其中,WT和b分别为权重矩阵和偏置项,p即为模型预测的情感标签。
全文数据:
权利要求:
百度查询: 西华大学 基于多视角的双极性相似融合网络的多模态情感分析方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。