申请/专利权人:珠海先牛科技有限公司
申请日:2024-01-16
公开(公告)日:2024-04-05
公开(公告)号:CN117835065A
主分类号:H04N23/69
分类号:H04N23/69;H04N23/67;G06N3/0464
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.04.23#实质审查的生效;2024.04.05#公开
摘要:本发明公开了一种基于CNN的端到端自动调焦方法,本发明涉及调焦方法的技术领域,S1:神经网络模型的构建;S2:神经网络的学习:将大量不同内容的图片送入步骤S1中构建的神经网络模型进行学习,以此得到和图片内容无关的清晰度检测模型;S3:神经网络模型的训练:使用CrossEntropyLoss作为Lossfunction,CosineAnnealingLR作为lrscheduler,其中学习速率调度算法为CosineAnnealingLR,包括样本生成和action的生成;S4:神经网络模型的设计;S5:模型的解译。本发明所述的一种基于CNN的端到端自动调焦方法,此模型能取得99.54%的准确率,具有5‑10张图像完成清晰图像对焦的功能。
主权项:1.一种基于CNN的端到端自动调焦方法,其特征在于:所述包括以下操作步骤:S1:神经网络模型的构建:包括第一层:其中Outputsize为80x80,DefinitionNet为conv,3x3,32,stride=2;第二层:其中Outputsize为40x40,DefinitionNet包括conv_dw,3x3,64,stride=1、ResidualSE、conv_dw,3x3,64,stride=2;第三层:其中Outputsize为20x20,DefinitionNet包括conv_dw,3x3,128,stride=1、ResidualSE、conv_dw,3x3,128,stride=2;第四层:其中Outputsize为10x10,DefinitionNet包括conv_dw,3x3,256,stride=1、ResidualSE、conv_dw,3x3,256,stride=2;第五层:其中Outputsize为5x5,DefinitionNet包括conv,5x5,256,stride=1、linear256、linear2;S2:神经网络的学习:将大量不同内容的图片送入步骤S1中构建的神经网络模型进行学习,以此得到和图片内容无关的清晰度检测模型;S3:神经网络模型的训练:使用CrossEntropyLoss作为Lossfunction,CosineAnnealingLR作为lrscheduler,其中学习速率调度算法为CosineAnnealingLR,包括以下操作步骤:样本生成:保持被训练样本的静止状态,采集各个被训练样本vcm下的图像,每个vcm值下保存一张被训练样本的图片,采集N个目标的N*1024张被训练样本的图片,作为训练原始数据,根据不同vcm的图像,生成训练池;action的生成:人为找到最清晰图片及相应的vcm值记作best_vcm;采集不同vcm值的两张被训练样本的图片,记作img_a,img_b,vcm值分别记作vcm_a,vcm_b;根据两张图片的vcm值和最佳vcm值生成神经网络使用的action,其中action生成过程为:diff1=absbest_vcm-vcm_b、diff2=best_vcm-vcm_b,每一个vcm值处的图片,在[-200,200]的范围内,生成X对图像;S4:神经网络模型的设计:包括deepwise卷积核ResidualSE模块,其中神经网络模型中FocusNet包括80x80+80x80的cat,dim1、conv,3x3,32,stride=2;40x40的conv_dw,3x3,64,stride=1、ResidualSE、conv_dw,3x3,64,stride=2;20x20的conv_dw,3x3,128,stride=1、ResidualSE、conv_dw,3x3,128,stride=2;10x10的conv_dw,3x3,256,stride=1、ResidualSE、conv_dw,3x3,256,stride=2;5x5的conv,5x5,512,stride=1、linear512、linear17;S5:模型的解译:获取图像a,将vcm向前推,获取图像b,和图像a一起输入神经网络,获取神经网络的输出,得到下一步的action,将action转为vcm的偏移值,根据伪代码进行模型的解译即可。
全文数据:
权利要求:
百度查询: 珠海先牛科技有限公司 一种基于CNN的端到端自动调焦方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。