申请/专利权人:北京航空航天大学
申请日:2024-03-13
公开(公告)日:2024-04-12
公开(公告)号:CN117870652A
主分类号:G01C21/00
分类号:G01C21/00;G01C21/16;G01C21/20;G01C21/28;G01S13/06;G01S13/86
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.04.30#实质审查的生效;2024.04.12#公开
摘要:本发明属于无人系统协同定位技术领域,尤其涉及一种基于雷达、惯性、视觉融合的陆空在线协同定位方法。在相对定位的过程中,无人机和无人车均通过机载雷达、惯性单元融合实现自身定位,同时基于无人机视觉观测无人车相对位置,随后采用无人机和无人车点云融合配准的方式实现相对位姿估计。本发明能够实现无人机和无人车在卫星拒止环境下的稳定自定位和互定位,实时性高,定位稳定可靠,受环境变化影响较小。此外,不仅实现了准确实时的互定位,同时可以建立统一的融合地图,形成较为完整的点云地图,提高协同规划与导航任务效率。
主权项:1.一种基于雷达、惯性、视觉融合的陆空在线协同定位方法,其特征在于,包括以下步骤:步骤S1、基于机载雷达和惯性传感器,分别对无人机和无人车进行定位;步骤S2、通过无人机机载摄像头识别无人车二维码,获取相对位姿初始值;步骤S3、结合相对位姿初始值,将无人机的点云数据转换到无人车的坐标系中,将无人机与无人车的点云数据基于改进的ICP算法进行配准,得到两个点云数据重合度最高的变换关系,即为无人机与无人车的相对位姿。
全文数据:
权利要求:
百度查询: 北京航空航天大学 一种基于雷达、惯性、视觉融合的陆空在线协同定位方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。