买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】无人机影像定位定姿方法及无人机_深圳飞马机器人科技有限公司_201810223815.4 

申请/专利权人:深圳飞马机器人科技有限公司

申请日:2018-03-19

公开(公告)日:2020-11-24

公开(公告)号:CN108759788B

主分类号:G01C11/02(20060101)

分类号:G01C11/02(20060101);G01C21/20(20060101);G01C25/00(20060101)

优先权:

专利状态码:有效-授权

法律状态:2020.11.24#授权;2018.11.30#实质审查的生效;2018.11.06#公开

摘要:本申请实施例公开了一种无人机影像定位定姿方法和无人机,涉及无人机技术领域。该方法包括:获取相机内参以及包括影像和机载POS数据,根据相机内参对影像进行畸变纠正得到无畸变影像,提取无畸变影像中的特征点和特征描述,利用机载POS数据进行约束完成特征粗匹配,再进行相对定向得到影像间的本质矩阵,提取无畸变影像中的特征点和特征描述,以粗匹配中的本质矩阵为核线约束进行快速的高精度匹配,计算影像之间的相关性,通过区域增长方式得到子图,在子图内部进行增量式重建后进行全局优化重建,在全局优化重建过程中加入相机内参,最终得到无人机影像的精确位置和姿态。上述方法和无人机可用于提高无人机影像定位定姿的准确性。

主权项:1.一种无人机影像定位定姿方法,其特征在于,所述方法包括:获取影像和机载定姿定位系统数据;使用相机内参对所述影像进行畸变纠正,得到无畸变影像,所述相机内参经过预置的检校方式进行高精度检校得到;通过第一特征检测算法,提取所述无畸变影像的第一特征点及第一特征点的特征描述;以所述机载定姿定位系统数据为空间约束,对所述第一特征点和所述第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的第一同名点信息;根据所述第一同名点信息和所述相机内参,利用随机抽样一致算法计算出所述第一影像和所述第二影像的相对位置和姿态;通过角点检测算法提取所述无畸变影像高精度的角点,并将提取的角点作为第二特征点,利用第二特征检测算法提取每个所述第二特征点的特征描述;以所述第一影像和所述第二影像的相对位置和姿态为核线约束,对所述第二特征点和所述第二特征点的特征描述进行基于距离的匹配,得到所述第一影像和所述第二影像的第二同名点的信息;利用所述影像和所述机载定姿定位系统数据构建德洛内三角网,获取所述德洛内三角网中所述第一影像和所述第二影像之间的边的权值,以得到所述第一影像和所述第二影像的相关性,其中,所述德洛内三角网的每个顶点为每张所述影像,顶点坐标为所述机载定姿定位系统数据的经纬度值,每条边具有唯一的权值;将所述德洛内三角网,通过预设方式的区域增长分割为多个子图;将每个所述子图进行增量式重建,得到所述影像的位置、姿态和稀疏的三维点云;按照预置方式合并各所述子图,将影像的外方位元素及稀疏的三维点云、相机内参加入,进行全局式重建优化,得到影像的最终位置和姿态。

全文数据:无人机影像定位定姿方法及无人机技术领域[0001]本发明涉及无人机技术领域,尤其涉及一种无人机影像定位定姿方法及无人机。背景技术[0002]利用无人机快速获取感兴趣区域的影像已逐渐成为当前航空摄影测量发展的一个重要分支。与传统航空摄影测量影像相比,无人机获取的影像具有高空间分辨率、高时间分辨率等优点。[0003]但是,受限于无人机系统的安全性及负载能力,无人机上通常搭载的是较廉价的非量测型相机,该类型相机具有如下特点:(1像幅小,一般不超过一亿像素,因此影像数量特别巨大;(2畸变量大,影像边缘处的畸变量可达200个像素以上,需要高次方程才能很好的表达;(3—致性差,同型号的不同相机的畸变规律不同,难以用一套参数来适配同一个型号的所有相机。为此,海量无人机影像处理往往存在效率低下,畸变难以正确改正及处理结果不稳定等问题。发明内容[0004]有鉴于此,本申请实施例提供一种无人机影像定位定姿方法及无人机,优化现有检校算法,减少操作员的干预,增强检校结果的可靠性。[0005]本申请实施例第一方面提供了一种无人机影像定位定姿方法,包括:[0006]获取影像和机载定姿定位系统数据;[0007]使用相机内参对所述影像进行畸变纠正,得到无畸变影像,所述相机内参经过预置的检校方式进行高精度检校得到;[0008]通过第一特征检测算法,提取所述无畸变影像的第一特征点及第一特征点的特征描述;[0009]以所述机载定姿定位系统数据为空间约束,对所述第一特征点和所述第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的的第一同名点信息;[0010]根据所述第一同名点信息和所述相机内参,利用随机抽样一致算法计算出所述第一影像和所述第二影像的相对位置和姿态;[0011]通过角点检测算法提取所述无畸变影像高精度的角点,并将提取的角点作为第二特征点,利用第二特征检测算法提取每个所述第二特征点的特征描述;[0012]以所述第一影像和所述第二影像的相对位置和姿态为核线约束,对所述第二特征点和所述第二特征点的特征描述进行基于距离的匹配,得到所述第一影像和所述第二影像的第二同名点的信息;[0013]利用所述影像和所述机载定姿定位系统数据构建德洛内三角网,获取所述德洛内三角网中所述第一影像和所述第二影像之间的边的权值,以得到所述第一影像和所述第二影像的相关性,其中,所述德洛内三角网的每个顶点为每张所述影像,顶点坐标为所述机载定姿定位系统数据的经炜度值,每条边具有唯一的权值;[0014]将所述德洛内三角网,通过预设方式的区域增长分割为多个子图;[0015]将每个所述子图进行增量式重建,得到所述影像的位置、姿态和稀疏的三维点云;[0016]将影像的外方位元素及稀疏的三维点云、相机内参加入,进行全局式重建优化,得到影像的最终位置和姿态。[0017]本申请实施例第二方面提供了一种无人机,包括:[0018]相机、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现本申请实施例第一方面提供的无人机影像定位定姿方法。[0019]本申请各实施例,通过相机的高精度检校来解决非测量型相机畸变大且不同相机间差异大的问题,由于未知变量的减少有效地降低了处理过程的计算量,同时提高了处理结果的精度和稳定性,以及采取从粗到精和核线约束的匹配策略,使得海量无人机影像匹配的效率达到了实时的处理要求,通过相关性的子图分割,确保小规模问题求解的效率,同时先增量重建再全局优化重建的策略进一步提高了处理结果的精度,从而提高了无人机获取影像的位置和姿态的准确性。附图说明[0020]图1为本申请实施例提供的无人机影像定位定姿方法的流程图;[0021]图2为本申请实施例提供的无人机的硬件结构示意图;[0022]图3为本申请实施例提供的无人机影像定位定姿装置的结构示意图。具体实施方式[0023]为更进一步阐述本申请为实现预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本申请的具体实施方式、结构、特征及其功效,详细说明如后。[0024]请参阅图1,图1为本发明提供的无人机影像定位定姿方法的流程示意图。该方法包括:[0025]S101、对无人机搭载的相机进行高精度检校,得到相机内参;[0026]无人机在出厂前需对其搭载的相机按照预设的检校方式进行高精度检校,得到精确的相机内参,包括焦距、像主点和畸变参数。[0027]具体地,对该相机进行高精度检校,得到相机内参可包括:[0028]设置如下畸变模型公式:[0031]其中:Δχ,Ay为像点改正值;X,y为像方坐标系下的像点坐标;XQ,yQ为像主点,lu、k2、k3、pi、p2、a、b为畸变参数。[0032]进一步地,设置如下共线方程:[0033][0034]其中,f为焦距,XQ,yo为像主点,ai、a2、a3、bi、b2、b3、ci、C2、C3为旋转矩阵中的元素,Xs、Ys、Zs为线元素,X、Y、Z为已知物方点的三维坐标,X、y为对应的像方点坐标;[0035]其中,s为自然数。[0036]进一步地,相机的高精度检校需要在已经测量控制点坐标的实验场内进行,控制点坐标是人工实测的,具有非常高的测量精度,因此可以保证该相机内参是精确的。根据共线方程列出误差方程,通过最小二乘法计算出相机的精确的相机内参,该相机内参包括焦距、像主点和畸变参数。[0037]具体地,令控制点为{P「Pn},控制点对应的像点则为{ΡΓ··ρη},其中Pi=Xi,Yi,Zi,pi=xi,yi;其中,η和i均为自然数。[0038]将相机的标称焦距作为f的初值,像主点XQ,yo和畸变参数kl、k2、k3、pl、p2、a、t^H始化为零;[0039]根据前述共线方程列出每个控制点的方程,由于像主点和畸变参数均为零,共线方程可简化为如下:[0040][0041]利用直接线性变换DLT,DirectLinearTransformation算法计算出旋转矩阵中的元素1、32、33、131、匕2、匕3、31、02、03及线元素乂3、¥3、23。其中,;[和8均为自然数。[0042]列出每个控制点误差方程如下:[0043][0044]其中,ΔXi,Δyi为Xi和yi对应的像点改正值。[0045]高精度检校过程即寻找最小化目标函数的参数,如下所示:[0046][0047]利用最小二乘法对上述最小化目标函数进行求解,先将DLT算法计算得到的结果作为最小二乘法的初值,再迭代计算得到相机的精确的内参。[0048]另外,当相机曝光数量每达到10万次或使用过程中有剧烈碰撞时,均需要返厂进行高精度检校。[0049]S102、获取影像和机载定姿定位系统数据;[0050]无人机进行正常作业,获取影像和机载定姿定位系统数据P0S,PositioningandOrientationSystem,影像和机载POS数据统称为飞行数据。[0051]其中每张影像对应一个机载POS数据,此机载POS数据为无人机上的传感器记录的摄影时相机在空中的位置和姿态,其中位置即为经炜度。[0052]需要说明的是,受限于传感器的测量精度,此位置和姿态精度一般都很差,不能直接使用。[0053]S103、使用该相机内参对该影像进行畸变纠正,得到无畸变影像;[0054]利用步骤SlOl中的精确的相机内参对飞行数据中的影像进行畸变纠正,得到无畸变影像。[0055]具体地,针对飞行数据中的每张影像,可以得到拍摄该影像的相机所对应的精确的相机内参,包括焦距、像主点和畸变参数,相机内参作为已知量,可以根据根据步骤SlOl中的该畸变模型公式得到ΔX、Δy,ΔX和Δy分别是x、y的像点改正值;[0056]令x,y和xu,yu分别表示畸变纠正前后对应的像素坐标,则[0057][0058]畸变纠正是从xu,yu计算出对应的(x,y的过程,根据无畸变影像的每个像素位置行列计算对应的原始影像上的像素位置。对上述公式进行调整,得到改正公式:[0059][0060]其中(AXu,Ayu为Xu,yu对应的像点改正值,基于步骤SlOl中的该畸变模型公式计算得到;其中,U为自然数。[0061]进一步地,利用上述改正公式,可以得到无畸变影像上每个xu,yu对应的(x,y,一般情况下(x,y为非整数值,采用双线性内插计算出对应的颜色值,该颜色值为RGB即RGB颜色模式中红、绿、蓝通道值,从而得到无畸变影像。[0062]S104、通过第一特征检测算法,提取该无畸变影像的第一特征点及第一特征点的特征描述;[0063]第一特征检测算优选ORBOrientedFASTandRotatedBRIEF算法,ORB算法可快速提取无畸变影像特征点及其特征描述。ORB算法分为两部分,分别是特征点提取和特征点描述。特征提取是由FASTFeaturesfromAcceleratedSegmentTest算法发展来的,特征点描述是根据BRIEFBinaryRobustIndependentElementaryFeatures特征描述算法改进的。ORB特征是将FAST特征点的检测方法与BRIEF特征描述子结合起来,并在它们原来的基础上做了改进与优化。[0064]S105、以机载定姿定位系统数据为空间约束,对提取的第一特征点和第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的第一同名点信息;[0065]以步骤S102中的机载POS数据为空间约束,对步骤S104中提取的第一特征点及第一特征点的特征描述进行基于距离的匹配,得到两两影像间的第一同名点信息,此步骤为粗匹配过程。[0066]同名点是地面上同一个点在不同影像上成的像点。[0067]具体地,对所有影像构建德洛内(Delaunay三角网,Delaunay三角网的每个顶点对应一张影像,顶点坐标为对应影像的机载POS数据的经炜度值,两张影像的图距离定义为通过两张影像对应的顶点的最少边数。[0068]进一步地,令匹配影像为A,待匹配的影像集合为B,集合B为Ib^b2,...bn},其中集合B中的影像与A的图距离均小于预设距离,该预设距离例如20,且已根据图距离排序;[0069]匹配失败次数用Nfall表示,令Nfall=0,逐一将A与集合B中的影像匕进行匹配,如果A与bi的问名点数大于24,则将Nfail置为零,否则将Nfail加一,即执^fjNfail=Nfail+1,^Nfail大于预设数值时,例如12,匹配影像A的匹配过程结束,得到两两影像间的第一同名点的信息。[0070]S106、根据该第一同名点信息和该相机内参,利用随机抽样一致算法计算出该第一影像和第二影像的相对位置和姿态;[0071]利用两两影像间的同名点信息及精确的相机内参,通过随机抽样一致RANSAC,RandomSampleConsensus算法计算出两两影像的相对位置和姿态,也即本质矩阵EssentialMatrix,此步骤为相对定向过程。[0072]S107、通过角点检测算法提取该无畸变影像高精度的角点,并将提取的角点作为第二特征点,利用第二特征检测算法获取每个第二特征点的特征描述;[0073]具体地,利用Harris算法提取该无畸变影像的角点,将提取的各角点作为特征点,提取的角点可以达到子像素级,相对于步骤S104中的ORB算法提取的特征点精度更高。再利用SURFSpeededUpRobustFeatures算法计算每个角点作为的特征点的特征描述。[0074]S108、以第一影像和第二影像的相对位置和姿态为核线约束,对第二特征点和第二特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的第二同名点的信息;[0075]S卩,以该本质矩阵为核线约束,对步骤S107中提取的第二特征点和第二特征点的特征描述进行基于距离的匹配,得到两两影像间的第二同名点的信息,此步骤为高精度匹配过程。[0076]具体地,如果影像A和影像B在粗匹配过程中有同名点,则对影像A和影像B进行精匹配,令影像A和影像B的特征点分别为{ftr"fr"fn}和{gtr"gj‘"gm},该特征点对应的特征描述分别为{ar"ai‘"an}和{btr"bj···!^,其中fi和gj为2维向量,ai和bj为256位的二进制串,fi与ai--对应,gj与bj--对应;[0077]进一步地,利用该本质矩阵对特征点{ftr"fr"fn}和{gtr"gj"_gm}进行核线对齐,对齐后的特征点为{fV··f’1…f’n}和{g’…gV··g’m},从对齐后的第一影像特征点{f·V··f’1…f’n}中,任取第一影像的特征点一个特征描述a1,计算与其y方向差异小于预设数量像素,例如5个像素的所有特征描述子{bu-_bv_bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离为du和dvKdv,如果dudv小于预设比例,例如dudv〇.8,则称gu为fi的最佳匹配特征;[0078]进一步地,将影像A和影像B互换,重复上述精匹配过程,具体地,从对齐后的第二影像特征点{g’fg’fg’m}中,任取第二影像的特征点的一个特征描述b1,计算与其y方向差异小于预设数量像素的所有特征描述子{bu-_bv_bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离分别为du和dv,其中,du$dv,若dudv小于所述预设比例,则称第一影像中的特征点81为第二影像中的特征点fu的最佳匹配特征;先通过y方向约束,即在y方向计算选取范围,再对范围内的数据进行海明距离判断,可以提高特征的匹配速度。需要说明的是,前述核线对齐后的特征点是用于实现上述y方向约束的快速匹配的,匹配关系与该本质矩阵对特征点是一致的,最终的结果还是需要得到该本质矩阵对特征点的匹配关系。[0079]如果6与幻互为最佳匹配特征,则6与幻为同名点,6与幻的同名点信息为第二同名点信息。[0080]其中,i、n、j、m均为自然数,并且,in;jm;u、v、w均为自然数,并且,uvw。[0081]S109、利用影像和机载定姿定位系统数据构建德洛内三角网,获取该德洛内三角网中第一影像和第二影像之间的边的权值,以得到第一影像和第二影像的相关性;[0082]利用机载POS数据构建Delaunay三角网,Delaunay三角网的每个顶点代表每张影像,顶点坐标为对应影像的机载POS数据的经炜度值,每条边具有唯一的权值,该权值为此边的两个端点对应的两张影像的相关性R。[0083]具体计算方式为:待计算相关性的影像为第一影像A和第二影像B,步骤S108中精匹配得到的同名点集合为{a〇‘"ar"an}和{^••七1"七„},其中1和131分别为第一影像六和第二影像B对应的同名点,第一影像A和第二影像B的本质矩阵为E,根据本质矩阵E和精匹配得到的该同名点坐标,也即该第二同名点的信息,通过前方交会法计算出该同名点的交会角。统计所有范围在预设角度范围内,例如(15°,75°以内的该交会角数量NangIf3,则第一影像A和第二影像B的相关性R定义如下:[0084][0085]其中,e为自然常数e。[0086]S110、从该德洛内三角网中,通过预设方式的区域增长得到各个子图;[0087]设子图的最多顶点数为Nmaxv,以贪心准则进行区域增长,当区域增长的子图顶点数量达到Nmaxv时,则将该子图保存,然后开始新的区域增长,直到每个顶点都属于唯一子图。[0088]具体地,遍历该Delaunay三角网中的每个三角形,每个三角形的权值为对应三条边的权值之和。选取权值最高的三角形作为起点,将该三角形加入到当前子图V中,采用贪心准则进行区域增长,即每次将权重最高的邻接三角形加入到当前子图V中,直到子图V的顶点数量到达Nmaxv或三角网T中所有三角形均已处理完毕。进一步,将子图V从三角网T中剔除,如果三角网T不为空,则继续执行上述步骤,即选取权值最高的三角形为起点,将该三角形加入到当前子图V中,采用贪心准则进行区域增长,即每次将权重最高的邻接三角形加入到当前子图V中,直到该德洛内三角网为空,则子图分割完毕。[0089]Slll、针对每个子图进行增量式重建,得到影像的位置、姿态和稀疏的三维点云;[0090]针对每个分割后的子图,进行增量式重建(IncrementalStructureFromMotion,此过程不对相机的内参进行优化,只是得到影像的外方位元素和稀疏的三维点云,其中,外方位元素包括影像的位置和姿态,稀疏的三维点云为步骤SlOl中共线方程的X、Y、Z构成的,稀疏的三维点云与位置和姿态是相关的,在优化位置和姿态的同时,稀疏三维点云也会随之进行调整。[0091]S112、按照预置方式合并子图,将影像的外方位元素及稀疏的三维点云、相机内参加入,进行全局式重建优化,得到影像的最终位置和姿态。[0092]按照预置方式对子图进行合并,具体是将子图与邻近的顶点数量最少的子图合并,例如,令{Vo,··{···¥„}为分割后的子图,如果一个子图Vi的顶点数量小于预设顶点数量,例如当前子图的顶点数量小于32,则将子图与邻近的顶点数量最少的子图合并。[0093]进行全局式重建GlobalOptimizationStructureFromMotion,此过程先优化影像的外方位元素(即位置和姿态及稀疏的三维点云,再将相机的内参加入到重建过程中一起优化,进而得到影像的准确的位置和姿态。[0094]本发明实施例中,通过相机的高精度检校来解决非测量型相机畸变大且不同相机间差异大的问题,由于未知变量的减少有效地降低了处理过程的计算量,同时提高了处理结果的精度和稳定性,以及采取从粗到精和核线约束的匹配策略,使得海量无人机影像匹配的效率达到了实时的处理要求,通过相关性的子图分割,确保小规模问题求解的效率,同时先增量重建再全局优化重建的策略进一步提高了处理结果的精度,从而提高了无人机获取影像的位置和姿态的准确性。[0095]图2为本申请实施例提供的无人机硬件结构示意图。该无人机包括:相机201、存储器202、处理器203及存储在存储器202上并可在处理器203上运行的计算机程序,处理器203执行该计算机程序时,实现前述图1所示实施例中描述的无人机影像定位定姿方法。[0096]上述相机201、存储器202、处理器203,通过总线204连接。[0097]存储器202可以是高速随机存取记忆体RAM,RandomAccessMemory存储器,也可为非不稳定的存储器non-volatilememory,例如磁盘存储器。存储器202用于存储一组可执行程序代码,处理器203与存储器202耦合。[0098]进一步地,本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质可以是设置于上述各实施例中的无人机中。该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现前述图1所示实施例中描述的无人机影像定位定姿方法。进一步地,该计算机可存储介质还可以是U盘、移动硬盘、只读存储器;R0M,Read-OnlyMemory、RAM、磁碟或者光盘等各种可以存储程序代码的介质。[0099]图3为本申请实施例提供的无人机影像定位定姿装置的结构示意图。本实施例提供的无人机影像定位定姿装置是上述图1所示实施例中的无人机影像定位定姿方法的执行主体,可运行于无人机中。该无人机影像定位定姿装置主要包括:[0100]获取模块301,用于获取影像和机载定姿定位系统数据;[0101]畸变纠正模块302,用于使用相机内参对该影像进行畸变纠正,得到无畸变影像,该相机内参经过预置的检校方式进行高精度检校得到;[0102]第一提取模块303,用于通过第一特征检测算法,提取该无畸变影像的第一特征点及第一特征点的特征描述;[0103]第一匹配模块304,用于以该机载定姿定位系统数据为空间约束,对该第一特征点和该第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的的第一同名点信息;[0104]计算模块305,用于根据该第一同名点信息和该相机内参,利用随机抽样一致算法计算出该第一影像和该第二影像的相对位置和姿态;[0105]第二提取模块306,用于通过角点检测算法提取该无畸变影像高精度的角点,并将提取的角点作为第二特征点,利用第二特征检测算法提取每个该第二特征点的特征描述;[0106]第二匹配模块307,用于以该第一影像和该第二影像的相对位置和姿态为核线约束,对该第二特征点和该第二特征点的特征描述进行基于距离的匹配,得到该第一影像和该第二影像的第二同名点的信息;[0107]相关性确认模块308,用于利用该影像和该机载定姿定位系统数据构建德洛内三角网,获取该德洛内三角网中该第一影像和该第二影像之间的边的权值,以得到该第一影像和该第二影像的相关性,其中,该德洛内三角网的每个顶点为每张该影像,顶点坐标为该机载定姿定位系统数据的经炜度值,每条边具有唯一的权值;[0108]分割模块309,用于将该德洛内三角网,通过预设方式的区域增长分割为多个子图;[0109]第一重建模块310,用于将每个该子图进行增量式重建,得到该影像的位置、姿态和稀疏的三维点云;[0110]合并模块311,用于按照预置方式合并各该子图;[0111]第二重建模块312,用于将影像的外方位元素及稀疏的三维点云、相机内参加入,进行全局式重建优化,得到影像的最终位置和姿态。[0112]进一步地,畸变纠正模块302,还具体用于从每张该影像,得到该相机内参,该相机内参包括焦距、像主点和畸变参数;[0113]根据该相机内参,调整该影像畸变纠正前后的坐标改正公式;[0114]根据该影像进行畸变纠正前的坐标和该改正公式,计算得到该影像的畸变纠正后的坐标,并采用双线性内插计算出该畸变纠正后的坐标对应的颜色值,以得到该影像对应的无畸变影像。[0115]第一匹配模块304,还具体用于对所有影像构建德洛内三角网,该德洛内三角网的每个顶点对应一张影像,顶点坐标为对应影像的机载定姿定位系统数据的经炜度值,两张影像的图距离定义为通过两张影像对应的顶点的最少边数;[0116]令匹配影像为A,待匹配的影像集合为B,集合B为Ib1,b2,...bn},其中集合B中的影像与A的图距离均小于预设距离,且已根据图距离排序;u为自然数[0117]匹配失败的次数用Nfail表示,令Nfail=O,逐一将A与集合B中的影像bi进行匹配,若八与^的同名点数大于预设数量,则将Nfall置为零,若A与1^的同名点数小于等于该预设数量,则将NfaiI加一;i为自然数,且in。[0118]当Nfall大于预设数值时,匹配结束,得到该第一影像和该第二影像间的第一同名点的信息。[0119]第二匹配模块307,还具体用于令该第一影像的特征点为{fV"fr"fn},对应的特征点的特征描述为{atr"ar"an},该第二影像的特征点为{go"_gj…gm},对应的特征描述为{bo"_bj"_bm},其中,fi和gj为2维向量,ai和bj为256位的二进制串,fi与ai对应,gj与bj—一对应;i、η、j、m为自然数,in,jCm。[0120]利用该第一影像和该第二影像的相对位置和姿态,对该第一影像的特征点和第二影像的特征点进行核线对齐,对齐后的该第一影像的特征点为{f’o…f’d’n},对齐后的该第二影像的特征点为{gV-g’r-g’J;[0121]从对齐后的第一影像特征点中,任取该第一影像的特征点的一个特征描述1,计算与其y方向差异小于预设数量像素的所有特征描述子{bfbv_bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离分别为du和dv其中,duSdv,若dudv小于预设比例,则称该第二影像中的特征点gu为该第一影像中的特征点A的最佳匹配特征;[0122]从对齐后的第二影像特征点,任取该第二影像的特征点的一个特征描述匕,计算与其y方向差异小于该预设数量像素的所有特征描述子{bu-_bv_bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离分别为du和dv其中,dudv,若dudv小于该预设比例,则称该第一影像中的特征Ag1为该第二影像中的特征点fu的最佳匹配特征;[0123]确认互为最佳匹配特征的第一影像中的特征点A和该第二影像中的特征点为同名点,对应的同名点信息为该第二同名点信息。[0124]其中,i、n、j、m均为自然数,并且,in;jm;u、v、w均为自然数,并且,uvw。[0125]相关性确认模块308,还具体用于令待计算相关性的第一影像的同名点集合为{ao—ann},第二影像的同名点集合为Ibvbr^brJ,其中,其中ai和bi分别为第一影像和第二影像对应的同名点;[0126]根据该第一影像和该第二影像的相对位置和姿态,以及该第一影像和该第二影像对应的同名点坐标,通过前方交会法计算出该同名点的交会角;[0127]统计所有在预设角度范围之内的该交会角的数量Nangle3,则该第一影像和该第二影像的相关性R的计算公式如下:[0128][0129]其中,e为自然常数e。[0130]分割模块309,还具体用于遍历该德洛内三角网中的每个三角形,每个三角形的权值为对应三条边的权值之和;选取权值最高的三角形作为起点,将该权值最高的三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到当前子图的顶点数量到达预设的最高数量或所有三角形均已处理完毕;将当前子图从该德洛内三角网中剔除,如果该德洛内三角网不为空,则继续执行该选取权值最高的三角形作为起点,将该权值最高的三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到当前子图的顶点数量到达预设的最高数量或所有三角形均已处理完毕的步骤,即选取权值最高的三角形为起点,将该三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到该德洛内三角网为空,则该子图分割完毕。[0131]合并模块311,具体用于将该当前子图与该当前子图邻近的顶点数量最少的子图合并,还具体用于若当前子图的顶点数量小于预设顶点数量,则将该当前子图与该当前子图邻近的顶点数量最少的子图合并。[0132]本发明实施例中未尽细节,参见前述无人机影像定位定姿方法的实施例的描述,此处不再赘述。[0133]本发明实施例中,通过相机的高精度检校来解决非测量型相机畸变大且不同相机间差异大的问题,由于未知变量的减少有效地降低了处理过程的计算量,同时提高了处理结果的精度和稳定性,以及采取从粗到精和核线约束的匹配策略,使得海量无人机影像匹配的效率达到了实时的处理要求,通过相关性的子图分割,确保小规模问题求解的效率,同时先增量重建再全局优化重建的策略进一步提高了处理结果的精度,从而提高了无人机获取影像的位置和姿态的准确性。[0134]需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。[0135]在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。[0136]在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者装置中还存在另外的相同要素。[0137]本领域技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁带,磁盘或光盘等。

权利要求:1.一种无人机影像定位定姿方法,其特征在于,所述方法包括:获取影像和机载定姿定位系统数据;使用相机内参对所述影像进行畸变纠正,得到无畸变影像,所述相机内参经过预置的检校方式进行高精度检校得到;通过第一特征检测算法,提取所述无畸变影像的第一特征点及第一特征点的特征描述;以所述机载定姿定位系统数据为空间约束,对所述第一特征点和所述第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的的第一同名点信息;根据所述第一同名点信息和所述相机内参,利用随机抽样一致算法计算出所述第一影像和所述第二影像的相对位置和姿态;通过角点检测算法提取所述无畸变影像高精度的角点,并将提取的角点作为第二特征点,利用第二特征检测算法提取每个所述第二特征点的特征描述;以所述第一影像和所述第二影像的相对位置和姿态为核线约束,对所述第二特征点和所述第二特征点的特征描述进行基于距离的匹配,得到所述第一影像和所述第二影像的第二同名点的信息;利用所述影像和所述机载定姿定位系统数据构建德洛内三角网,获取所述德洛内三角网中所述第一影像和所述第二影像之间的边的权值,以得到所述第一影像和所述第二影像的相关性,其中,所述德洛内三角网的每个顶点为每张所述影像,顶点坐标为所述机载定姿定位系统数据的经炜度值,每条边具有唯一的权值;将所述德洛内三角网,通过预设方式的区域增长分割为多个子图;将每个所述子图进行增量式重建,得到所述影像的位置、姿态和稀疏的三维点云;按照预置方式合并各所述子图,将影像的外方位元素及稀疏的三维点云、相机内参加入,进行全局式重建优化,得到影像的最终位置和姿态。2.如权利要求1所述的方法,其特征在于,所述使用相机内参对所述影像进行畸变纠正,得到无畸变影像之前包括:对无人机搭载的相机进行高精度检校,得到所述相机内参,所述相机内参包括焦距、像主点和畸变参数。3.如权利要求2所述的方法,其特征在于,所述对无人机搭载的相机进行高精度检校,得到所述相机内参包括:设置畸变模型公式以及共线方程,并根据所述共线方程列出误差方程,通过最小二乘法计算出所述相机内参;其中,畸变模型公式如下:其中:ΔX,Δy为像点改正值;x,y为像方坐标系下的像点坐标;χο,γο为像主点,kl、k2、k3、pl、p2、a、b为畸变参数;共线方程如下:其中,f为焦距,XQ,y〇为像主点,1、32、33、131、匕2上、31、02、03为旋转矩阵中的元素义丄、Zs为线元素,X、Y、Z为已知物方点的三维坐标,X、y为对应的像方点坐标;令经过实测的控制点为{Ρι···Ρη},控制点对应的像点则为{ρι···ρη},其中Pi=Xi,Yi,Zi,Pi=Xi,yi;将相机的标称焦距作为f的初值,像主点XQ,yo和畸变参数kl、k2、k3、pi、p2、a、b初始化为零;则根据所述共线方程列出每个所述控制点的方程,所述共线方程可简化为如下:利用直接线性变换算法计算出所述旋转矩阵中的元素31、32、33、131、匕2士3、31、〇2、〇3及线JLi、Ys、Zs〇列出每个控制点误差方程如下:其中,ΔXi,Δyi为Xi和yi对应的像点改正值;将所述直接线性变换算法计算出所述旋转矩阵中的元素ai、a2、a3、bi、b2、b3、ci、C2、C3线元素Xs、Ys、Zs的值作为最小二乘法的初值,利用最小二乘法对最小化目标函数求解,得到所述相机内参;其中,最小化目标函数为:4.如权利要求3所述的方法,其特征在于,所述使用相机内参对所述影像进行畸变纠正,得到无畸变影像包括:从每张所述影像,得到所述相机内参,所述相机内参包括焦距、像主点和畸变参数;根据所述相机内参,调整所述影像畸变纠正前后的坐标改正公式;根据所述影像进行畸变纠正前的坐标和所述改正公式,计算得到所述影像的畸变纠正后的坐标,并采用双线性内插计算出所述畸变纠正后的坐标对应的颜色值,以得到所述影像对应的无畸变影像。5.如权利要求1所述的方法,其特征在于,所述以所述机载定姿定位系统数据为空间约束,对所述第一特征点和所述第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的的第一同名点信息包括:对所有影像构建德洛内三角网,所述德洛内三角网的每个顶点对应一张影像,顶点坐标为对应影像的机载定姿定位系统数据的经炜度值,两张影像的图距离定义为通过两张影像对应的顶点的最少边数;令匹配影像为A,待匹配的影像集合为B,集合B为Ib^b2,...bn},其中集合B中的影像与A的图距离均小于预设距离,且已根据图距离排序;匹配失败的次数用Nfall表示,令Nfall=O,逐一将A与集合B中的影像匕进行匹配,若六与匕的同名点数大于预设数量,则将Nfall置为零,若六与匕的同名点数小于等于所述预设数量,则将Nfail加一;当Nfall大于预设数值时,匹配结束,得到所述第一影像和所述第二影像间的第一同名点的信息。6.如权利要求5所述的方法,其特征在于,所述以所述第一影像和所述第二影像的相对位置和姿态为核线约束,对所述第二特征点和所述第二特征点的特征描述进行基于距离的匹配,得到所述第一影像和所述第二影像的第二同名点的信息包括:令所述第一影像的特征点为…fn},对应的特征点的特征描述为{avafan},所述第二影像的特征点为{gT"gr"gm},对应的特征描述为{bfbfbm},其中,fi和gj为2维向量,ajPbj为256位的二进制串,fi与ai——对应,gj与bj——对应;利用所述第一影像和所述第二影像的相对位置和姿态,对所述第一影像的特征点和第二影像的特征点进行核线对齐,对齐后的所述第一影像的特征点为{f’Q…f’ί···ί·’η},对齐后的所述第二影像的特征点为{g’fg’fg’J;从对齐后的所述第一影像特征点中,任取所述第一影像的特征点的一个特征描述B1,计算与其y方向差异小于预设数量像素的所有特征描述子{bu-_bv_bw}的海明距离,假设海明距离最小的两个特征描述为bi^Pbv,对应的海明距离分别为山和心其中,dudv,若dudv小于预设比例,则称所述第二影像中的特征点gu为所述第一影像中的特征点h的最佳匹配特征;从对齐后的所述第二影像特征点中,任取所述第二影像的特征点的一个特征描述h,计算与其y方向差异小于所述预设数量像素的所有特征描述子{bu-_bv_bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离分别为du和dv其中,dudv,若dudv小于所述预设比例,则称所述第一影像中的特征点gl为所述第二影像中的特征点fu的最佳匹配特征;确认互为最佳匹配特征的第一影像中的特征点A和所述第二影像中的特征点U为同名点,对应的同名点信息为所述第二同名点信息。7.如权利要求6所述的方法,其特征在于,所述利用所述影像和所述机载定姿定位系统数据构建德洛内三角网,获取所述德洛内三角网中所述第一影像和所述第二影像之间的边的权值,以得到所述第一影像和所述第二影像的相关性包括:令待计算相关性的第一影像的同名点集合为{avafan},第二影像的同名点集合为Ibvbr^b1J,其中,其中1和1^分别为第一影像和第二影像对应的同名点;根据所述第一影像和所述第二影像的相对位置和姿态,以及所述第一影像和所述第二影像对应的同名点坐标,通过前方交会法计算出所述同名点的交会角;统计所有在预设角度范围之内的所述交会角的数量Nangle3,则所述第一影像和所述第二影像的相关性R的计算公式如下:8.如权利要求7所述的方法,其特征在于,所述将所述德洛内三角网,通过预设方式的区域增长分割为多个子图包括:遍历所述德洛内三角网中的每个三角形,每个三角形的权值为对应三条边的权值之和;选取权值最高的三角形作为起点,将所述权值最高的三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到当前子图的顶点数量到达预设的最高数量或所有三角形均已处理完毕;将当前子图从所述德洛内三角网中剔除,如果所述德洛内三角网不为空,则继续执行所述选取权值最高的三角形作为起点,将所述权值最高的三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到当前子图的顶点数量到达预设的最高数量或所有三角形均已处理完毕的步骤,即选取权值最高的三角形为起点,将该三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到所述德洛内三角网为空,则所述子图分割完毕。9.如权利要求8所述的方法,其特征在于,所述按照预置方式合并各所述子图包括:将所述当前子图与所述当前子图邻近的顶点数量最少的子图合并。10.—种无人机,包括:相机、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现权利要求1至9中的任意一项所述无人机影像定位定姿方法。

百度查询: 深圳飞马机器人科技有限公司 无人机影像定位定姿方法及无人机

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。