申请/专利权人:浙江大学
申请日:2023-12-21
公开(公告)日:2024-02-27
公开(公告)号:CN117611919A
主分类号:G06V10/764
分类号:G06V10/764;G06V10/80;G06V10/82;G06N3/0464;G06N3/045;G06N3/08
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.03.15#实质审查的生效;2024.02.27#公开
摘要:本发明公开了一种基于视触融合的抓握物体分类方法,其步骤如下:获取将经过数据预处理待分类物体的视觉图像数据和触觉图像数据输入到经过训练的视触融合物体分类网络中,得到待分类物体的分类标签,完成基于视触融合的抓握物体分类。其中,视触融合物体分类网络包括残差网络、带有卷积注意力机制模块的残差网络、卷积注意力机制模块和分类器模块,通过注意力机制提高特征获取能力并充分融合视觉特征和触觉特征。为了验证本发明方法的准确性和有效性,构建视触融合多模态数据集,并与只包含视觉或者触觉的单模态数据进行对比,可以看出本发明分类结果准确率高,对于触觉感知和视触融合具有重要的应用价值。
主权项:1.一种基于视触融合的抓握物体分类方法,其特征在于,步骤如下:S1.获取待分类物体的原始视觉图像数据和原始触觉图像数据,并对原始视觉图像数据和原始触觉图像数据进行数据预处理,对应得到待分类物体的视觉图像数据和触觉图像数据;S2.获取一个经过训练的视触融合物体分类网络,所述视触融合物体分类网络包括一个残差网络、一个带有卷积注意力机制模块的残差网络、一个卷积注意力机制模块和一个分类器模块;将待分类物体的视觉图像数据输入到所述卷积注意力机制残差网络中,对应得到视觉图像数据的视觉特征;将待分类物体的触觉图像数据输入到所述残差网络中,对应得到触觉图像数据的触觉特征;S3.将所述视觉特征和所述触觉特征进行通道拼接,得到拼接后的视触觉特征;将拼接后的视触觉特征输入到所述卷积注意力机制模块,得到待分类物体的融合特征数据;S4.将待分类物体的融合特征数据输入到所述分类器模块,得到待分类物体的分类标签,完成基于视触融合的抓握物体分类。
全文数据:
权利要求:
百度查询: 浙江大学 一种基于视触融合的抓握物体分类方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。