买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】基于边界框回归模型的目标跟踪方法_西安电子科技大学_202010883760.7 

申请/专利权人:西安电子科技大学

申请日:2020-08-28

公开(公告)日:2022-12-02

公开(公告)号:CN112053384B

主分类号:G06T7/246

分类号:G06T7/246;G06T7/73;G06T5/00

优先权:

专利状态码:有效-授权

法律状态:2022.12.02#授权;2020.12.25#实质审查的生效;2020.12.08#公开

摘要:本发明公开了一种基于边界框回归的目标跟踪方法,主要解决因传统的相关滤波器预测的目标区域不准确的问题,本发明实现的步骤如下:计算连续分辨率的空间特征图;计算相关滤波器;构建边界框回归模型;回归预测的目标位置;将调整后的目标区域位置作为对于目标跟踪的结果;判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧图像,若是,则执行下一步,否则,用下一帧从头开始执行;结束对待跟踪目标的跟踪。本发明通过构造边界框回归行,更准确地预测了目标区域的位置信息,也通过三次线性插值的方式丰富了神经网络对目标区域提取到的特征,最终实现了准确的目标跟踪。

主权项:1.一种基于边界框回归模型的目标跟踪方法,其特征在于,通过构建的边界框回归模型,对滤波器定位的目标位置进行回归调整;该方法的步骤包括如下:1计算第一帧连续分辨率的空间特征图:1a将待跟踪目标视频中随机选取含有目标一帧的作为第一帧;1b使用深度卷积神经网络VGG-19提取第一帧中目标区域离散空间域的特征;1c利用下述三次线性插值公式,将每个维度离散空间域特征转换到连续分辨率的空间特征,得到空间特征图;所述的三次线性插值公式如下: 其中,Hd'·表示第d维离散空间域特征转换到第d'维连续分辨率的空间特征,xd表示深度特征图中第d维离散空间域特征,Nd表示第d维离散空间域特征的采样数,∑表示加和操作,n表示离散空间域特征的序号,be表示具有周期的插值核函数,si表示第一帧中的目标区域中的第i个像素点,Z表示第一帧中的目标区域的像素点总数,d与d'的取值对应相等;2从含有待跟踪目标视频图像序列中除第一帧外选取一帧未选过的图像作为当前帧;3计算当前帧的连续分辨率的空间特征图:3a使用深度卷积神经网络VGG-19提取当前帧中目标区域离散空间域的特征;3b利用三次线性插值公式,将每个维度离散空间域特征转换到连续分辨率的空间特征,得到空间特征图;4计算相关滤波器:4a通过空间特征图并利用特征响应图计算公式,计算相关滤波器在空间特征图上产生的特征响应图;4b利用相关滤波器优化函数,对响应图进行优化,将满足相关滤波器优化函数取到最小值的滤波器作为对应于第一帧中的目标区域的相关滤波器;所述的相关滤波器优化函数如下: 其中,Ef表示相关滤波器优化函数,min·表示求最小值操作,M表示相关滤波器的维度总数,j表示相关滤波器维度的序号,表示第j维相关滤波器对应的权重参数,||·||2表示L2范数操作,y表示第一帧中的目标区域的标签,w表示满足中间小周围大的倒高斯二维矩阵,表示点乘操作,d”'表示相关滤波器的维度,d”'的取值与d,d’对应相等;5构建边界框回归模型:5a利用第一帧中确定的相关滤波器与当前帧中的视频区域进行点乘操作,得到用于预测目标位置的响应图;5b将预测目标位置的响应图中响应最大值区域作为当前帧中预测目标区域的位置;5c计算当前帧中的真实目标区域位置与滤波器预测的目标区域位置之间的移动误差,计算公式如下: 其中,tx表示真实目标区域位置与滤波器预测的目标区域位置之间的横坐标误差,ty表示真实目标区域位置与滤波器预测的目标区域位置之间纵坐标的误差,tw表示真实目标区域位置与滤波器预测的目标区域位置之间宽的误差,th表示真实目标区域位置与滤波器预测的目标区域位置之间高的误差,Gx表示真实目标区域位置的横坐标,Gy表示真实目标区域位置的纵坐标,Gw表示真实目标区域位置的宽,表示真实目标区域位置的高,Px表示滤波器预测的目标区域位置的横坐标,Py表示滤波器预测的目标区域位置的纵坐标,Pw表示滤波器预测的目标区域位置的宽,Ph表示滤波器预测的目标区域位置的高,log表示以10为底的对数;5d通过最小化回归模型损失函数,分别计算边界框回归模型的用于调节预测目标区域位置横坐标、纵坐标、宽和高对应的四个参数,利用四个参数完成边界框回归模型的构建,这四个参数是由下由下式分别计算得到的:m=argmint*-mTθP2+||m||2其中,m表示用于调节预测目标区域位置横坐标、纵坐标、宽和高中的任意一个参数,argmin·表示最小化函数,t*表示真实目标区域位置与滤波器预测的目标区域位置之间的横坐标、纵坐标、宽和高之间任意一个参数的误差,T表示转置操作,θP表示预测到的目标区域的特征向量,λ表示正则化系数;6回归预测的目标位置:利用边界框回归模型中的用于调节预测目标区域位置横坐标、纵坐标、宽和高的参数,对预测的目标区域位置进行调整,调整是由下式实现的: 其中,Qx表示调整后的目标区域位置的横坐标,Qy表示调整后的目标区域位置的纵坐标,Qw表示调整后的目标区域位置的宽,Qh表示调整后的目标区域位置的高,Kx表示边界框回归模型中用于调整预测目标区域横坐标的参数,Ky表示边界框回归模型中用于调整预测目标区域纵坐标的参数,Kw表示边界框回归模型中用于调整预测目标区域宽的参数,Kh表示边界框回归模型中用于调整预测目标区域高的参数,ep表示计算幂指数操作;7将调整后的目标区域位置作为对于目标跟踪的结果;8判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧图像,若是,则执行步骤9,否则,执行步骤2;9结束对待跟踪目标的跟踪。

全文数据:

权利要求:

百度查询: 西安电子科技大学 基于边界框回归模型的目标跟踪方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。