买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】基于改进的YOLOv5s的小目标布匹瑕疵检测方法_南京林业大学_202310887250.0 

申请/专利权人:南京林业大学

申请日:2023-07-19

公开(公告)日:2024-03-26

公开(公告)号:CN117152484B

主分类号:G06V10/764

分类号:G06V10/764;G06V10/774;G06V10/762;G06V10/82;G06V10/80;G06N3/0464;G06N3/048;G06N3/08

优先权:

专利状态码:有效-授权

法律状态:2024.03.26#授权;2023.12.19#实质审查的生效;2023.12.01#公开

摘要:本发明公开一种基于改进的YOLOv5s的小目标布匹瑕疵检测方法,属于机器视觉检测技术领域,获取小目标布匹瑕疵图像,建立初始的数据集;对小目标布匹瑕疵数据集进行聚类分析并得到聚类中心;将聚类中心值输入至YOLOv5s网络;在YOLOv5s网络引入CA注意力模块,使网络在更大区域内进行注意;采用BiFPN结构作为YOLOv5s网络模型的特征融合网络;采用Eiou损失函数代替原损失函数,不仅考虑了中心点距离和纵横比,而且还考虑了预测框与真实框宽度和高度的真实差异,提高了锚框的预测精度。结果表明,相较于原YOLOv5s算法,本发明在小目标布匹瑕疵检测上具有更强的特征提取能力和更高的检测精度。

主权项:1.一种基于改进的YOLOv5s的小目标布匹瑕疵检测方法,其特征在于,包括以下步骤:步骤1:获取小目标布匹瑕疵图像,进行标签标注,并使用图像处理方法对数据集进行扩充,建立初始的小目标布匹瑕疵数据集;布匹的瑕疵种类包括:0结头、1断经、2破洞;对初始数据集的图像进行仿射变换、平移、旋转、裁剪,将数据集扩充;步骤2:采用聚类算法对小目标布匹瑕疵数据集进行聚类分析并得到聚类中心,将获得的聚类中心值输入至YOLOv5s网络;在步骤2中,利用DBScan结合二分K-means算法对布匹瑕疵数据集进行聚类分析,得到更适合小目标布匹瑕疵的聚类中心;利用DBScan算法的密度可达特性将小目标布匹瑕疵数据集聚合成若干个簇,排除边缘点和孤立点因素的干扰;将每一簇的数据集作为新的输入,利用二分K-means算法的迭代聚合分为两个簇,并计算每个簇的误差,选择能使总误差SSE最小的簇划分为两个簇;重复操作直到选出簇数目达到给定的K值为止;最终共聚类出9个锚框,将通过改进聚类算法获得的锚框信息和小目标布匹瑕疵数据集的训练数据集输入到YOLOv5s算法网络中,进行参数设置;利用DBScan算法的密度可达特性将小目标布匹瑕疵数据集聚合成若干个簇,排除边缘点和孤立点因素的干扰;将每一簇的数据集作为新的输入,利用二分K-means算法的迭代聚合分为两个簇,并计算每个簇的误差,选择能使总误差SSE最小的簇划分为两个簇;重复操作直到选出簇数目达到给定的K值为止;最终共聚类出9个锚框,其中,总误差SSE计算公式如下: 其中,ωi为每簇中聚类中心的权重,pi为子簇的点云数据,pi′为聚类中心点;步骤3:使用标注工具对数据集进行标注,将标注后的图像数据划分为训练集和测试集;步骤4:以YOLOv5s模型为基本架构,在Backbone的C3结构与SPP结构之间引入CA注意力模块;采用BiFPN结构作为特征融合网络;用Eiou损失函数代替原有的损失函数作为目标框回归的损失函数;具体内容如下:S41:在Backbone的C3结构与SPP结构之间引入CA注意力模块;CA注意力模块是为了增强网络学习特征的表达能力,提高网络训练模型的平均精度均值;CA注意力模块实现过程:CA注意力模块为了获取图像宽度和高度上的注意力并对精确位置信息进行编码,先对输入特征图的宽度和高度两个方向进行全局平均池化,得到两个方向的特征图,公式如下: 其中,W是输入特征图的宽度,H是输入特征图的高度,xc表示第c个通道处的输入,h表示处于特征图的h高度处,xch,i表示在h高度处将宽度W分成W等分第i个等分处的输入,xcj,w表示在w宽度处将高度H分成H等分第j个等分处的输入;接着将获得全局感受野的宽度和高度两个方向的特征图拼接在一起,然后将其送入共享的卷积核为1×1的卷积模块,将维度降为原来的Cr,之后将经过批归一化处理后的特征图f送入Sigmoid激活函数得到特征图F,公式如下: 其中,δ表示Sigmoid激活函数,激活函数的公式如下: 接着将特征图F按照原来的高度和宽度进行卷积核为1×1的卷积分别得到通道数和原来一样的fh和fw,经过Sigmoid激活函数分别得到特征图在高度和宽度上的注意力权重ωh和ωw,公式如下:ωh=δfhFhωw=δfwFw其中,Fh和Fw分别是特征图F在高度和宽度方向上的分量,fh和fw分别是特征图F两个分量经过1×1卷积后的特征图;最后在原始特征图上通过乘法计算,最终得到在宽度和高度方向上带有注意力权重的特征图,公式如下: 其中,xcm,n是原始特征图,和分别是高度和宽度方向带有注意力权重的特征图;S42:用BiFPN结构作为YOLOv5s网络模型的特征融合网络,优化原有的FPN和PANet结构:BiFPN结构是一种加权双向特征金字塔网络,基于FPN结构BiFPN网络的每个节点都会对输入的特征向量以加权融合的方式来融合不同特征层,基于PANet结构BiFPN网络重复实现自上而下和自下而上的双向融合,最终三个BiFPN基础结构叠加输出融合低维和高维的特征,BiFPN运用双向融合思想,在前向传播之外重新构造自顶向下,自底向上的双向通道,对来自主干网不同尺度的特征信息进行融合,通过上采样与下采样统一特征分辨率尺度,并在同一尺度的特征间添加双横向连接,缓解因网络层级过多造成的特征信息丢失;S43:使用Eiou损失函数代替原有的损失函数作为目标框回归的损失函数:IoU和IoU损失函数的公式如下: 其中:B表示预测框的面积;Bi表示真实框的面积;YOLOv5s网络使用Ciou作为网络损失函数,Ciou在Diou的基础上将Boundingbox的纵横比考虑进损失函数中,在Diou的惩罚项基础上加了一个影响因子αv,进一步提升了回归精度; 其中,α是权重系数,v表示检测框和真实框的长宽比的距离,b和bgt分别表示类别是布匹瑕疵的预测框和非布匹瑕疵的预测框的中心点,ρ表示欧氏距离,c表示目标最小外接矩形的对角线距离,IoU表示两个框的交集面积比上两个框的并集面积,α和v的表达式为: 其中,ωgt为真实矩形框的宽,hgt为真实矩形框的高,ψ为检测矩形框的宽,h为检测矩形框的高;步骤5:将训练集输入改进YOLOv5s网络模型中,对改进YOLOv5s网络模型进行训练,验证模型检测效果。

全文数据:

权利要求:

百度查询: 南京林业大学 基于改进的YOLOv5s的小目标布匹瑕疵检测方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。