申请/专利权人:哈尔滨工程大学
申请日:2020-07-17
公开(公告)日:2021-04-27
公开(公告)号:CN111915678B
主分类号:G06T7/73(20170101)
分类号:G06T7/73(20170101);G06T7/55(20170101);G06T7/80(20170101);G06K9/46(20060101);G06K9/62(20060101);G06N3/12(20060101);G01S11/12(20060101)
优先权:
专利状态码:有效-授权
法律状态:2021.04.27#授权;2020.11.27#实质审查的生效;2020.11.10#公开
摘要:本发明是一种基于深度学习的水下单目视觉目标深度定位融合估计方法。本发明属于水下单目视觉定位融合估计技术领域,本发明建立水下摄像机的量化坐标系,确定点投影到玻璃下表面的像距离主光轴的距离,建立基于二次投影的水下摄像机成像模型;对基于二次投影的水下摄像机成像模型,进行参数标定;基于几何特征,进行水下单目视觉目标进行深度估计;基于帧差法,进行水下单目视觉目标进行深度估计;采用基于深度学习的SSD300目标检测方法,对水下目标进行检测,基于几何特征和帧差法,进行水下单目视觉目标深度定位融合估计。引入熵权法开展单目视觉目标深度融合估计方法研究,有效减小单一方法深度估计的不稳定性,提高深度估计的准确性。
主权项:1.一种基于深度学习的水下单目视觉目标深度定位融合估计方法,其特征是:包括以下步骤:步骤1:建立水下摄像机的量化坐标系,并进行水下摄像机成像模型的坐标系转换;步骤2:建立水下折射模型,确定点投影到玻璃下表面的像距离主光轴的距离,建立基于二次投影的水下摄像机成像模型;步骤3:对基于二次投影的水下摄像机成像模型,进行参数标定;步骤4:采用基于深度学习的SSD300目标检测方法,对水下目标进行检测;步骤5:基于几何特征,进行水下单目视觉目标进行深度估计;基于帧差法,进行水下单目视觉目标进行深度估计;步骤6:基于几何特征和帧差法,进行水下单目视觉目标深度定位融合估计。
全文数据:
权利要求:
百度查询: 哈尔滨工程大学 一种基于深度学习的水下单目视觉目标深度定位融合估计方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。