买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种基于多尺度特征融合的域自适应行人检测方法_南京视察者智能科技有限公司_202211545209.7 

申请/专利权人:南京视察者智能科技有限公司

申请日:2022-12-05

公开(公告)日:2023-05-23

公开(公告)号:CN116152729A

主分类号:G06V20/52

分类号:G06V20/52;G06V10/80;G06V10/82;G06V10/764;G06V10/766;G06N3/0464;G06N3/048

优先权:

专利状态码:在审-实质审查的生效

法律状态:2023.06.09#实质审查的生效;2023.05.23#公开

摘要:本发明公开了一种基于多尺度特征融合的域自适应行人检测方法,该方法通过使用全方位多尺度特征融合模块对特征进行深度挖掘和提取,全面提高模型对尺度的敏感性;同时,采用多个不同类型的域适应判别器,既能够提高模型检测性能,也可以增强模型的域自适应能力,整体提升模型的鲁棒性。

主权项:1.一种基于多尺度特征融合的域自适应行人检测方法,其特征在于,该方法主要包括如下步骤:步骤1,将源域和目标域的图像输入到主干网络中,提取主干网络中最后3个模块输出的特征图,输入到特征金字塔网络中,得到特征图集合步骤2,将特征图集合输入到检测头中,检测头包含卷积层、BatchNorm层、ReLU激活层和全连接层,使用交并比IoU损失来回归检测框,从而初步预测出候选目标框损失函数为步骤3,将特征图集合分别通过一个3×3卷积层和一个1×1卷积层,得到两个特征图,分别记为和将特征图输入到多尺度特征融合模块,该模块包含低分辨率和高分辨率两个主要分支,低分辨率分支中包含4个平行的卷积层,采用不同的卷积核k;高分辨率分支则先使用步长为2的3×3卷积层,再使用不同卷积核的卷积层;步骤4,结合初步预测出的候选检测框为每个分支计算权重Wk,具体为: 其中τ为温度参数,用以平滑预测的概率分布;即预测框与卷积核的交并比,表示uk中的最大值;融合所有特征实现多尺度特征表达,获得融合特征图M,具体为:其中为哈达玛积,即对应元素相乘,表示卷积核为k的卷积层输出的特征图;步骤5,将特征图M再输入到域自适应判别模块中的检测头中,得到更加准确的预测结果;域自适应判别模块中的检测头采用FocalLoss损失和交叉熵损失,用于目标分类,采用IoU损失用于检测框回归;域自适应判别模块包括细粒度判别模块、实例判别模块和类别判别模块,分别对应细粒度判别器、实例判别器和类别判别器;细粒度判别模块中,将和输入到细粒度判别器Dfine中,为源域图像经过主干网络获得的特征图,为目标域图像经过主干网络获得的特征图,实例判别模块则是将特征图M作为输入,若属于源域的融合特征图为Ms,若属于目标域的融合特征图为Mt,实例判别器为Dins,在类别判别模块中,损失函数包含两部分,一部分用于区分域信息,记为其中Dcat为类别判别器,属于源域的实例类别标签设为属于目标域的实例类别标签设为另一部分是同时在源域和目标域区分实例的类别分布,记为在域自适应判别模块中的检测头中通过类别分支可以得到新的特征图其中H和W分别表示高度和宽度,2C表示源域和目标域中所有类别总和;使用Softmax可以进一步得到类别概率分布P,通过对类别设定阈值θ获取实例集合I={i,j|Pi,j>θ};其中,是预测类别伪标签,如果中坐标i,j的实例属于类别c,则否则pi,j,c是i,j特征属于第c类的概率,其中和分别表示在源域和目标域中,特征图上第c类的置信度;类别判别模块的总损失为其中α和β为平衡因子。

全文数据:

权利要求:

百度查询: 南京视察者智能科技有限公司 一种基于多尺度特征融合的域自适应行人检测方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。