申请/专利权人:北京交通大学;艾弗世(苏州)专用设备股份有限公司
申请日:2024-01-10
公开(公告)日:2024-04-09
公开(公告)号:CN117853531A
主分类号:G06T7/246
分类号:G06T7/246;G06V10/82;G06N3/0464;G06N3/08
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.04.26#实质审查的生效;2024.04.09#公开
摘要:本发明提供了一种基于反向注意力网络的单目标跟踪方法。该方法包括:标记视频数据第一帧中的包含跟踪目标位置的边界框,将边界框图像区域作为模板图像,根据模板图像获取下一帧中的搜索域图像;将模板图像和搜索域图像输入到特征提取网络,特征提取网络将模板图像和搜索域图像从三通道彩色图像转化为多通道特征,输出模板特征和搜索域特征;将模板特征和搜索域特征输入堆叠的反向注意力模型,反向注意力模型输出优化后的模板特征和搜索域特征,预测分支根据优化后的模板特征和搜索域特征输出当前帧中的目标位置。本发明方法能够实现抑制模板和搜索域中非目标特征的目标,从而提高模型对目标特征的感知精度以及目标跟踪算法的准确度。
主权项:1.一种基于反向注意力网络的单目标跟踪方法,其特征在于,包括:获取待进行单目标跟踪的视频数据,标记所述视频数据第一帧中的包含跟踪目标位置的边界框,将边界框图像区域作为模板图像,根据模板图像获取下一帧中的搜索域图像;将所述模板图像和搜索域图像输入到特征提取网络,特征提取网络将所述模板图像和搜索域图像从三通道彩色图像转化为多通道特征,输出模板特征和搜索域特征;将所述模板特征和搜索域特征输入堆叠的反向注意力模型,所述反向注意力模型输出优化后的模板特征和搜索域特征;将所述优化后的模板特征和搜索域特征输入预测分支,所述预测分支输出当前帧中包含跟踪目标位置的边界框,得到当前帧中的目标位置。
全文数据:
权利要求:
百度查询: 北京交通大学;艾弗世(苏州)专用设备股份有限公司 一种基于反向注意力网络的单目标跟踪方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。