申请/专利权人:山东科技大学
申请日:2021-11-26
公开(公告)日:2024-03-29
公开(公告)号:CN114119700B
主分类号:G06T7/55
分类号:G06T7/55;G06N3/0464;G06N3/08;G06V10/82;G06V10/774
优先权:
专利状态码:有效-授权
法律状态:2024.03.29#授权;2022.03.18#实质审查的生效;2022.03.01#公开
摘要:本发明公开了一种基于U‑V视差图的障碍物测距方法,通过双目相机采集待测图片,将待测图片输入到训练好的YOLO‑V3模型中,得到待测图片中障碍物的类别及位置坐标信息;将待测图片通过SSD算法处理后得到整图视差图;计算得到障碍物粗略距离,并将障碍物粗略距离由小到大排序,得到障碍物粗略距离排序表;构造障碍物粗略距离排序表中数值最小的障碍物的U视差图和V视差图;根据障碍物的U视差图和V视差图得到障碍物三维场景位置信息,通过迭代整图视差图最终得到待测图片中所有障碍物的三维场景位置信息。本发明能够准确提取障碍物视差信息,可以有效避免将背景视差作为障碍物视差的情况,从而降低障碍物距离的误差,提高距离信息的精确度。
主权项:1.一种基于U-V视差图的障碍物测距方法,其特征在于,包括以下步骤:步骤1:利用数据集训练YOLO-V3模型,通过双目相机采集待测图片,将待测图片输入到训练好的YOLO-V3模型中,得到待测图片中障碍物的类别及位置坐标信息;步骤2:将待测图片通过SSD算法处理后得到整图视差图;步骤3:根据步骤2得到的整图视差图及步骤1中获得的障碍物位置坐标信息计算得到障碍物粗略距离,并将障碍物粗略距离由小到大排序,得到障碍物粗略距离排序表;步骤4:依据步骤2中得到的整图视差图、步骤3中得到的障碍物粗略距离排序表以及步骤1中得到的障碍物的位置坐标信息构造障碍物粗略距离排序表中数值最小的障碍物的U视差图和V视差图;步骤5:将步骤4得到的U视差图和V视差图中的有效区域还原并融合得到障碍物准确视差图,将障碍物准确视差图转换为障碍物深度图,通过障碍物深度图求得障碍物三维场景位置信息,从整图视差图减去障碍物准确视差图,删除障碍物粗略距离排序表中数值最小的障碍物粗略距离;步骤6:重复步骤4至步骤5,最终得到待测图片中所有障碍物的三维场景位置信息。
全文数据:
权利要求:
百度查询: 山东科技大学 一种基于U-V视差图的障碍物测距方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。