申请/专利权人:山东大学;山东大学威海工业技术研究院
申请日:2024-02-18
公开(公告)日:2024-04-12
公开(公告)号:CN117876452A
主分类号:G06T7/55
分类号:G06T7/55;G06T7/73;G06T7/246;G06T3/4038;G06N3/09;G06T7/90
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.04.30#实质审查的生效;2024.04.12#公开
摘要:本发明提出了基于运动物体位姿估计的自监督深度估计方法及系统,包括:通过源帧,重建目标帧提供监督信号,构建自监督单目深度估计网络;使用彩色图像、预训练好的深度图作为自监督深度估计网络的输入,使用预训练好的深度估计网络和相机姿态预测网络处理单目视频,得到每帧所对应的初始深度图及相机位姿;利用已经得到的相机位姿将源帧的彩色图像利用坐标映射映射到目标帧;对深度图进行映射,将其从源帧映射到目标帧;将源帧映射好的彩色图像及深度图像与目标帧的彩色图像和深度图像拼接在一起,送至掩膜学习网络学习运动掩膜;将学习到的运动掩膜点乘拼接特征,送给网络学习得到运动物体的位姿,使用深度映射网络对目标帧的深度图进行增强。
主权项:1.基于运动物体位姿估计的自监督深度估计方法,其特征是,包括:构建自监督单目深度估计网络,所述自监督单目深度估计网络包括深度估计网络及姿态预测网络;使用预训练好的深度估计网络和相机位姿估计网络处理单目视频,得到每帧所对应的初始深度图及相机位姿,然后利用得到的相机位姿将源帧的彩色图像利用坐标映射映射到目标帧;同时对深度图进行映射,将其从源帧映射到目标帧;之后将源帧映射好的彩色图像及深度图像与目标帧的彩色图像和深度图像拼接在一起,然后学习运动掩膜,将学习到的运动掩膜点乘拼接特征,再学习得到运动物体的位姿;基于由源帧映射到目标帧的深度图与目标帧的深度图,使用深度映射网络对目标帧的深度图进行增强,获得基于运动位姿估计的自监督深度估计的增强的深度图。
全文数据:
权利要求:
百度查询: 山东大学;山东大学威海工业技术研究院 基于运动物体位姿估计的自监督深度估计方法及系统
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。