申请/专利权人:太原科技大学
申请日:2021-12-30
公开(公告)日:2024-03-26
公开(公告)号:CN114359546B
主分类号:G06V10/25
分类号:G06V10/25;G06V10/44;G06V10/56;G06V10/774;G06V10/82;G06N3/0464
优先权:
专利状态码:有效-授权
法律状态:2024.03.26#授权;2022.05.03#实质审查的生效;2022.04.15#公开
摘要:本发明公开了一种基于卷积神经网络的黄花菜成熟度识别方法,包括:采集黄花菜的图像数据并标注其特征点;修改YOLOv3神经网络的输出层、激活函数以及损失函数;使用COCO数据集预训练的神经网络参数在采集到的图像数据集上进行训练;使用训练完成的神经网络预测黄花菜的特征点,得到特征点在图像坐标系中的坐标;利用特征点在图像坐标系中的坐标及其深度图像,得到空间坐标;根据空间坐标计算黄花菜的长度特征;通过黄花菜成熟度与其长度特征之间的映射关系得到黄花菜的成熟度。本发明通过神经网络识别特征点与深度相机提取三维信息相结合的方式得到黄花菜的位置与长度信息,并通过长度判断其成熟度,具有识别率高、计算成本低的优点。
主权项:1.一种基于卷积神经网络的黄花菜成熟度识别方法,其特征在于,包括以下步骤:S1,采用基于TOF的3D相机采集黄花菜在夜晚和白天的图像,采用标注程序标注采集到的图像中黄花菜的特征点,保存图像数据集及其标签;S2,改进卷积神经网络,修改YOLOv3神经网络的输出层、激活函数以及损失函数,其中,输出层修改为x×x×24的向量;将不在图像中的特征点坐标设置为-0.1,-0.1,激活函数为Leaky-ReLU函数: 损失函数定义为: 式中,xi和yi分别表示神经网络的坐标预测结果,和分别表示数据集中的坐标真实值,Ci和分别表示预测的置信度与真实值,Mi和分别表示预测目标是否被遮挡;S表示模型最终预测的张量边长,B则表示负责预测目标的3种大小类别;第一行累加项代表在图像中节点位置的损失函数,表示预测点在图像中;第二行累加项代表不在图像中的节点的位置损失函数,其权重分别为λcooin和λcoonoin,表示该预测点不在图像中;第三行累加项为锚框内存在目标的概率的损失函数,表示负责预测的网格内存在目标;最后一行累加项表示目标被遮挡的概率的损失函数表示该目标被遮挡,其损失权重为λmask;S3,使用COCO数据集预训练的神经网络在步骤S1采集到的图像数据集上进行训练;S4,采摘过程中使用基于TOF的3D相机捕捉黄花菜的图像数据以及深度图,并使用步骤S3训练完成的神经网络预测黄花菜的特征点,得到特征点在图像坐标系中的坐标;S5,利用特征点在图像坐标系中的坐标及其深度图像,得到特征点的空间坐标;S6,通过得到的特征点的空间坐标计算特征点之间的距离,即黄花菜的长度特征;S7,通过黄花菜成熟度与其长度特征之间的映射关系得到黄花菜的成熟度,同时用特征点的空间坐标表示黄花菜的位置,完成黄花菜的识别和定位。
全文数据:
权利要求:
百度查询: 太原科技大学 一种基于卷积神经网络的黄花菜成熟度识别方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。