买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种支持场景表观差异的无人机图像视觉定位方法_北京航空航天大学_202311365902.0 

申请/专利权人:北京航空航天大学

申请日:2023-10-20

公开(公告)日:2024-04-16

公开(公告)号:CN117893600A

主分类号:G06T7/73

分类号:G06T7/73;G06T7/77;G06T11/40;G06F16/583;G06N3/0455;G06N3/0464;G06N3/08;G01C11/04

优先权:

专利状态码:在审-实质审查的生效

法律状态:2024.05.03#实质审查的生效;2024.04.16#公开

摘要:本发明公开了一种支持场景表观差异的无人机图像视觉定位方法。该方法包括虚拟图像合成和相机位姿计算两个阶段。在合成阶段,将以前重建的场景倾斜摄影模型和无人机拍摄的近期场景图像集作为输入,首先用近期场景图像投影到场景模型,然后在其视点附近渲染并通过空洞填补合成虚拟图像集,构造出虚拟图像检索数据库。在位姿计算阶段,首先在虚拟图像数据库中检索出与待定位图像高相似度的图像,然后通过特征匹配与反投影建立待定位图像与三维场景之间的2D‑3D匹配点对,最后使用RANSAC‑PnP算法求解相机位姿。本发明利用过时的倾斜摄影模型进行视觉定位,从而在GNSS拒止情况下为航空器自主飞行、遥感监测等提供导航定位支持。

主权项:1.一种支持场景表观差异的无人机图像视觉定位方法,其特征在于,该方法包括虚拟图像合成和相机位姿计算两个阶段,虚拟图像合成阶段步骤为:d1将近期场景图像投影到倾斜摄影模型,在其视点附近渲染得到待填补虚拟图像;d2处理待填补虚拟图像视角重叠区域像素,平滑接缝区域颜色过渡;d3在已有场景倾斜摄影模型中生成随机虚拟视点,在虚拟视点进行渲染,得到空洞填补网络的训练图像数据集;d4使用随机方法生成遮罩图像,作为训练图像的第四通道,辅助空洞填补网络识别填补区域;d5切割待填补图像,使其满足空洞填补网络的输入分辨率;d6使用步骤d3生成的训练图像数据集及d4生成的遮罩图像训练基于语义分割网络Segnet框架改进的空洞填补网络;d7将步骤d5的切割图像输入到步骤d6训练完成的空洞填补网络中,输出空洞填补结果,使用该填补结果构造用于定位的虚拟图像检索数据库;相机位姿计算阶段步骤为:t1在虚拟图像检索数据库中检索与待定位图像高相似度的图像;t2使用基于图神经网络的特征匹配算法Superglue网络提取待定位图像与检索结果图像的二维匹配点对,结合模型先验的深度信息反投影得到2D-3D匹配点对;t3使用随机采样一致性RANSAC-PnP算法对t2获得的匹配点对进行坏点剔除与相机位姿矩阵求解,实现图像视觉定位。

全文数据:

权利要求:

百度查询: 北京航空航天大学 一种支持场景表观差异的无人机图像视觉定位方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。