买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种级联细化对应图的单目物品位姿估计方法_南京理工大学_202311773270.1 

申请/专利权人:南京理工大学

申请日:2023-12-21

公开(公告)日:2024-03-22

公开(公告)号:CN117745825A

主分类号:G06T7/73

分类号:G06T7/73;G06V10/44;G06V10/82;G06N3/0464;G06N3/0455

优先权:

专利状态码:在审-实质审查的生效

法律状态:2024.04.09#实质审查的生效;2024.03.22#公开

摘要:本发明属于图像识别技术领域,一种级联细化对应图的单目物品位姿估计方法,包括以下步骤,S001,获得目标物品场景的可见光图像;S002,将目标图像块从目标物品场景的可见光图像中裁剪下来;S003,获得目标物品场景的可见光图像同目标模型之间的粗略密集对应关系;S004,将所获得的粗略密集对应关系输入级联网络,经过细化,获得精细对应关系;S005,将所获得的精细对应关系通过位姿回归网络,获得目标物品的位姿。本申请建立了端到端的位姿估计网络,并有效的利用已有的RGB信息,通过提取池化特征,并采用级联的多步生成方式来提高对应的生成精度,从而显著的提升6D位姿估计准确性,有效解决无法满足高精度需求的问题。

主权项:1.一种级联细化对应图的单目物品位姿估计方法,其特征在于:包括以下步骤,S001,获得目标物品场景的可见光图像;S002,将目标图像块从目标物品场景的可见光图像中裁剪下来,获得裁剪后的图片i0;S003,将所述图片i0缩放至分辨率256×256,输入ResNet34编码网络E1,将获得的8×8大小的特征图输入解码网络,获得目标物品场景的可见光图像同目标模型之间的64×64大小的粗略密集对应关系c0;S004,将步骤S003中所获得的粗略密集对应关系c0输入级联网络,经过细化,获得精细对应关系;S005,将步骤S004中所获得的精细对应关系通过位姿回归网络,获得目标物品的位姿。

全文数据:

权利要求:

百度查询: 南京理工大学 一种级联细化对应图的单目物品位姿估计方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。