申请/专利权人:电子科技大学
申请日:2020-06-04
公开(公告)日:2020-09-15
公开(公告)号:CN111667535A
主分类号:G06T7/73(20170101)
分类号:G06T7/73(20170101);G06T7/10(20170101)
优先权:
专利状态码:有效-授权
法律状态:2023.04.18#授权;2020.10.13#实质审查的生效;2020.09.15#公开
摘要:本发明提供了一种针对遮挡场景下的六自由度位姿估计方法,通过位姿估计网络中的粗预测模块和遮挡纠正模块,对待检测的RGB图片进行预测,得到关键点向量场,通过随机抽样一致算法投票得到目标物体的三维关键点投影坐标,再利用通过EPnP算法计算目标物体相对于相机的六自由度位姿。本发明所提出的位姿估计网络,可针对目标进行端到端训练和预测且不需要位姿修正后处理步骤,提高了算法的运行效率,在遮挡情况下能快速准确地检测出目标物体的六自由度位姿。
主权项:1.一种针对遮挡场景下的六自由度位姿估计方法,其特征在于,包括以下步骤:S1:输入待检测的RGB图片,并计算待检测目标的三维模型九个关键点的三维坐标;S2:通过位姿估计网络对待检测的RGB图片进行预测,获得二维关键点向量场和语义分割预测结果,具体为:S21:基于卷积神经网络构建位姿估计网络,包含粗预测模块和遮挡纠正模块;S22:将训练样本中RGB图片进行数据增强,输入到粗预测模块中,得到二维关键点向量场和语义分割粗预测结果,并通过向量场预测损失函数和语义分割损失函数计算与训练标签值之间的误差,通过自适应矩估计优化法对粗预测模块中权重参数进行更新,直至误差收敛,完成粗预测模块的训练;S23:渲染并合成遮挡图片样本;S24:将合成的遮挡图片样本通过训练完成的粗预测模块,得到二维关键点向量场和语义分割粗预测结果,再通过遮挡纠正模块,得到二维关键点向量场和语义分割预测结果,计算与标签值之间的误差,通过自适应矩估计优化法对遮挡纠正模块中权重参数进行更新,直至误差收敛,完成对遮挡纠正模块的训练;S25:将带检测的RGB图片输入到训练完成的位姿估计网络,分别通过粗预测模块与遮挡纠正模块,获得二维关键点向量场和语义分割预测结果;S3:利用步骤S2的得到的语义分割预测结果,对属于目标物体像素预测的向量,基于随机抽样一致算法进行投票得到九个二维关键点的坐标;S4:利用步骤S1的目标物体三维模型上的九个关键点的坐标以及步骤S3中图片目标物体的二维关键点坐标得到二维点与三维点的对应关系,通过EPnP算法计算目标物体相对于相机的六自由度位姿。
全文数据:
权利要求:
百度查询: 电子科技大学 一种针对遮挡场景下的六自由度位姿估计方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。