申请/专利权人:杭州电子科技大学
申请日:2021-04-30
公开(公告)日:2024-03-19
公开(公告)号:CN113392823B
主分类号:G06V10/22
分类号:G06V10/22;G06V10/774;G06V10/25;G06V10/82;G06N3/0464;G06N3/08
优先权:
专利状态码:有效-授权
法律状态:2024.03.19#授权;2021.10.01#实质审查的生效;2021.09.14#公开
摘要:本发明公开了一种基于深度网络回归的油位表读数方法,包括:步骤S1:获取油位表的图像数据作为样本图像;步骤S2:建立深度神经网络模型;步骤S3:对模型进行训练,首先,在输入训练样本的时候对两类样本进行混合,一部分是完整图样本,用来预测油位表位置大小,另一部分是根据油位表信息生成的截图,用于预测液位面高度位置;然后,使用交叉训练方式,即混合两种尺度图像作为输入,若输入大尺度图像,则使用网络的第一和第二分支的输出作为预测结果,使用油位表位置作为真值计算损失;若输入小尺度图像,则使用网络的第三分支输出作为预测结果,利用液位面高度计算损失;步骤S4:将工业油位表监控摄像头采集的图像输入训练好的模型进行预测。
主权项:1.一种基于深度网络回归的油位表读数方法,其特征在于,具体包括以下步骤:步骤S1:获取油位表的图像数据作为样本图像,并对样本图像进行标注得到训练用的标签数据;其中,得到两类样本标注信息,即预测油位表和液位面两个标签的信息;步骤S2:建立深度神经网络模型,该模型结构采用GoogleNet为主干网络,且该模型输出三个分支,其中,第一分支用于油位表概率预测,第二分支用于油位表位置大小回归预测,第三分支用于液位面高度位置回归预测;步骤S3:对步骤S2建立的模型进行训练,其中,为了让一个网络同时能预测油位表和液位面高度,首先,在输入训练样本的时候对两类样本进行混合,一部分是完整图样本,用来预测油位表位置大小,另一部分是根据油位表信息生成的截图,用于预测液位面高度位置;然后,使用交叉训练方式,即混合两种尺度图像作为输入,若输入大尺度图像,则使用网络的第一和第二分支的输出作为预测结果,使用油位表位置作为真值计算损失;若输入小尺度图像,则使用网络的第三分支输出作为预测结果,利用液位面高度计算损失;步骤S4:将工业油位表监控摄像头采集的图像输入训练好的模型进行预测,得出油位表在图像中的位置和大小,以及用油位表截图来预测液位面高度位置坐标。
全文数据:
权利要求:
百度查询: 杭州电子科技大学 一种基于深度网络回归的油位表读数方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。