申请/专利权人:南京邮电大学
申请日:2023-12-04
公开(公告)日:2024-04-30
公开(公告)号:CN117953561A
主分类号:G06V40/16
分类号:G06V40/16;G06V20/40;G06V10/80;G06V10/82;G06N3/0464
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.05.17#实质审查的生效;2024.04.30#公开
摘要:本发明公开了一种基于Transformer和显著图的时空区三流微表情识别方法,包括:使用ResNet18从光流图中提取光流特征,将其传递给自注意力模块生成显著图;将显著图与微表情序列的峰值帧点乘,留下峰值帧中关键的微表情部分,利用ResNet18提取空间流特征后传递给自注意力模块;使用VisionTransformer从微表情起始帧中提取区域位置特征,包括人脸、五官区域位置信息;将光流特征、空间流特征和区域位置特征输入到Transformer,利用多头注意力机制进行特征融合,最后输入到softmax层进行分类。本发明最大程度上利用了微表情序列的起始帧和峰值帧,加强了各特征间的关联并且使得网络更加关注于人脸表情的细微运动变化。
主权项:1.一种基于Transformer和显著图的时空区三流微表情识别方法,其特征在于,包括如下步骤:步骤一、使用ResNet18从光流图中提取光流特征,将所述光流特征传递给自注意力模块,并生成显著图;步骤二、将所述显著图与微表情序列的峰值帧进行点乘,留下所述峰值帧中关键的微表情部分,利用所述ResNet18提取空间流特征后传递给所述自注意力模块;步骤三、使用VisionTransformer从微表情数据库的起始帧中提取区域位置特征,所述区域位置特征包含人脸、五官区域位置信息;步骤四、将所述光流特征、所述空间流特征和所述区域位置特征输入到Transformer,利用多头注意力机制进行特征融合。
全文数据:
权利要求:
百度查询: 南京邮电大学 一种基于Transformer和显著图的时空区三流微表情识别方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。