买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种基于目标特性的分层可重构车载视频目标检测方法_北航航空航天产业研究院丹阳有限公司_201911131918.9 

申请/专利权人:北航航空航天产业研究院丹阳有限公司

申请日:2019-11-19

公开(公告)日:2024-03-19

公开(公告)号:CN111079540B

主分类号:G06V20/56

分类号:G06V20/56;G06V10/774;G06V10/762;G06V10/766;G06V10/82;G06N3/045;G06N3/0464;G06N3/082

优先权:

专利状态码:有效-授权

法律状态:2024.03.19#授权;2020.05.22#实质审查的生效;2020.04.28#公开

摘要:本发明提供了一种车载视频目标快速检测方法,属于计算机视觉、深度学习技术领域,包括如下步骤:步骤一:制作样本集;步骤二:确定模型先验边界框的初始化参数;步骤三:构建改进的tiny‑yolo‑v2目标检测网络模型,将原始9层网络结构简化为7层结构的卷积神经网络模型,前6层均为网络结构块,最后1层为卷积层;步骤四:训练模型;步骤五:检测目标。通过上述方法,可以实现车载视频每帧图像中设定目标的快速检测,相比于原tiny‑yolo‑v2网络结构,减少了网络层数和全网络卷积核数,使得所构建网络在保证目标检测精度与tiny‑yolo‑v2一致的条件下,检测速度增加、占用存储空间与计算资源减少,可满足车载视频目标检测要求。

主权项:1.一种车载视频目标快速检测方法,其特征在于,包括如下步骤:步骤一:制作样本集采集包含5种特定目标类型的车载视频作为训练和测试的样本集,将视频拆分为连续图像帧,标注每帧图像中出现的上述5种特定目标的类别和位置,随机选取部分有效样本作为训练样本集,剩余样本作为测试样本集,用于网络训练和测试网络模型性能;步骤二:确定模型先验边框初始化参数在网络模型中引入先验边框机制,使用K-means聚类算法,统计训练样本集中的所述5种特定目标的边框宽和高的均值和分布,用于初始化目标边框参数值w和h,w和h分别表示目标边框的宽和高;计算训练样本集中每类目标的真实边框和先验边框的交并比IOU,其计算公式如下: 式中,Areaofoverlap是目标真实边框与先验边框的重叠部分面积;Areaofunion是目标真实边框与先验边框的总面积;步骤三:构建改进的tiny-yolo-v2目标检测网络模型,所述网络模型包括如下内容:1改进tiny-yolo-v2网络模型结构,去掉原9层网络中的第7、8层,构建含有7层结构的卷积神经网络,并对每一层结构的卷积核个数进行调整,前6层均为网络结构块,后1层为卷积层;前6层网络结构块可以从训练数据中习得深层目标特征,第7层的卷积层为回归模型;所述含有7层结构的tiny-yolo-v2卷积神经网络中,每个结构块中:第一层为3×3卷积层,使用BatchNormalization归一化处理输入数据;第二层为池化层,使用LeakyReLU激活函数处理,如式2所示: 其中,x为池化层输入数据,a取1,+∞区间内的任意数值;2构建损失函数,包括:在原有损失函数的基础上增加两个学习目标权重系数,构造新的网络学习损失函数如式3所示:Loss=λcoordLosscoord+Lossobj+λnoobjLossnoobj3式中,λcoord为位置误差调整权重系数,设定为5;λnoobj为不含目标边框置信度权重系数,设定为0.5;Losscoord为位置误差损失函数;Lossobj为目标分类误差函数;Lossnoobj为不含目标边框损失函数;各类误差函数定义如式4-6所示: 式中,x、y、w、h分别为预测边框的中心坐标及其宽和高,分别为真值边框的中心坐标及其宽和高;Ci为预测边框内包含目标i的置信度,为真值边框包含目标i的置信度;pic为预测边框的分类概率,为真值边框的分类概率;在第i个网格中第j个目标预测边框时为1,否则为0,在目标中心位于第i个网格时为1,否则为0;步骤四:配置网络训练和测试所需环境,训练网络模型;步骤五:输入测试集的视频连续帧图像序列,加载步骤四训练所得网络模型,使用该模型检测测试样本集中的目标,利用非极大值抑制检测出测试样本中目标的位置和类别;步骤四中所述训练网络模型包括:按照步骤二聚类得出的先验边框,初始化网络边框参数;按照步骤三构建的网络模型及损失函数,初始化网络学习模型;不断向网络输入训练样本,计算损失函数值,根据损失函数值调整网络各层权重系数,如此循环,直至损失函数值达到设计要求;所述步骤五中,使用步骤一中制作的车载视频训练样本集训练改进前的tiny-yolo-v2网络,导出其训练模型,再使用测试样本集测试改进前的tiny-yolo-v2网络模型的mAPold值,并记录;再使用步骤四训练得到的网络模型,批量检测测试样本集,批量输出目标检测结果,并统计该模型的平均检测精度mAPnew值;如果mAPold-mAPnew≥ε,则增加每层的卷积核数量,更新改进的网络结构;再次用训练样本集训练更新的网络结构,导出新的网络模型,并用测试样本集测试该网络模型,直至mAPold-mAPnew<ε,得到最终改进的网络模型。

全文数据:

权利要求:

百度查询: 北航航空航天产业研究院丹阳有限公司 一种基于目标特性的分层可重构车载视频目标检测方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。