买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种基于全局上下文感知的遥感图像目标检测方法_西北工业大学_202210126106.0 

申请/专利权人:西北工业大学

申请日:2022-02-10

公开(公告)日:2024-04-02

公开(公告)号:CN114519819B

主分类号:G06V20/10

分类号:G06V20/10;G06V10/32;G06N3/0464;G06N3/084

优先权:

专利状态码:有效-授权

法律状态:2024.04.02#授权;2022.06.07#实质审查的生效;2022.05.20#公开

摘要:本发明公开了一种基于全局上下文感知的遥感图像目标检测方法,使用深度残差网络ResNet101提取图像的特征,利用特征金字塔网络FPN,FeaturePyramidNetwork进一步提取特征并生成候选区域;生成候选区域后,使用特征池化对齐特征;在特征提取网络的最高层加入全局上下文提取模块,提取特征与原始特征通过相加的方式融合,得到新的特征;最后利用全连接层对新特征进行分类,生成目标类别及边框。本发明利用高层特征语义信息丰富的特点,充分提取图像的场景信息,进一步加强特征表示,增加对密集目标的识别准确率,也一定程度上提高了其他目标的识别准确率,从而整体提高遥感图像中的目标检测性能。

主权项:1.一种基于全局上下文感知的遥感图像目标检测方法,其特征在于,包括以下步骤:步骤1:预处理和划分数据集;将标准数据集中的已标注图像统一裁剪为多幅1024*1024的图像,裁剪时宽度和高度分别保留10%像素的重合率,再随机划分为训练集、验证集和测试集,训练集、验证集和测试集没有交集;步骤2:构造目标检测深度神经网络并采用梯度下降和反向传播算法训练目标检测深度神经网络;所述目标检测深度神经网络先采用Res101残差网络提取特征,再使用特征金字塔网络FPN生成候选区域,然后对候选区域进行局部上下文感知,最后经过特征池化和全连接层得到目标类别和边界框,具体如下:步骤2-1:使用预训练模型初始化Res101模型参数;步骤2-2:将1024*1024的图像输入Res101残差网络提取特征后,生成6种不同大小的特征图,记为C1~C6,尺度分别为512*512,256*256,128*128,64*64,32*32,16*16;步骤2-3:对特征图C6进行全局最大池化,得到含有场景信息的场景特征;将场景特征再经过一个10*10卷积和一个1*1卷积,得到全局特征;步骤2-4:将特征图C5作为特征金字塔的特征图P5;将特征图C5经过上采样,与经过1*1卷积的特征图C4相加,生成特征金字塔的特征图P4;将特征图C4经过上采样,与经过1*1卷积的特征图C3相加,生成特征金字塔的特征图P3;将特征图C3经过上采样,与经过1*1卷积的特征图C2相加,生成特征金字塔的特征图P2;步骤2-5:特征金字塔的特征图P2、P3、P4、P5的尺寸分别为2562、1282、642、322;使用区域生成网络对特征金字塔中的每张特征图生成锚点anchor,每个anchor对应的宽高比包括1:2、1:1和2:1三种;因此,特征金字塔生成15种不同的anchor;使用anchor生成目标候选区域,计算公式为: 其中,xc,yc为anchor点坐标,w,h分别为目标候选区域的宽度和高度,x1,y1和x2,y2为目标候选区域的左上角和右下角坐标;计算目标候选区域和真实标签的交并比IoU:如果IoU≥0.7,则将目标候选区域设为正样本;如果IoU0.3,则将目标候选区域设为负样本;将得到的正样本和负样本作为训练目标候选区域的标签;步骤2-6:对目标候选区域进行特征池化,采用式2计算目标候选区域经过特征池化后对应的特征层: 其中,1024指输入图像尺寸,k0为基准值;因为目标候选区域是从四种不同的特征图P2、P3、P4、P5上经过anchor生成的,所以特征池化后也对应4种不同的特征层;特征池化后4种不同的特征层的取值规则为: 特征图P2、P3、P4、P5中的目标候选区域经过特征池化后,每个目标候选区域分别输出7*7个结果,即提取出49个特征;步骤2-7:把步骤2-6得到的49个特征和步骤2-3得到的全局特征相加,依次输入两个全连接层,两个全连接层输出结果为目标类别和目标边界框;步骤3:将待检测遥感图像输入训练完成的目标检测深度神经网络,输出得到目标的类别边界框。

全文数据:

权利要求:

百度查询: 西北工业大学 一种基于全局上下文感知的遥感图像目标检测方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。