买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】基于ResNet+DenseNet的多曝光图像融合方法_中国科学院西安光学精密机械研究所_202311681393.2 

申请/专利权人:中国科学院西安光学精密机械研究所

申请日:2023-12-08

公开(公告)日:2024-03-19

公开(公告)号:CN117726563A

主分类号:G06T5/92

分类号:G06T5/92;G06T5/50;G06T5/60;G06N3/045;G06N3/0464;G06N3/0985;H04N23/741;H04N23/743

优先权:

专利状态码:在审-实质审查的生效

法律状态:2024.04.05#实质审查的生效;2024.03.19#公开

摘要:本发明公开了一种基于ResNet+DenseNet的多曝光图像融合方法,以解决现有的多曝光图像融合方法融合质量不稳定及对源图像信息利用不充分的问题。具体是引入了具有更强学习能力的残差网络ResNet,该网络可以实现很深的网络结构的同时使用更少的参数,且更深的网络结构可以提供更强大的特征表达能力,有助于提取更丰富、更有区分性的特征,且网络复杂度低,通过将残差网络不同深度处的特征抽取出来实现了对源图像信息的充分利用,并将残差网络得到的源图像信息丰富度权重耦合到由结构相似度和均方误差构成的损失函数中,以数据驱动的方式训练网络,构建基于残差网络的端到端多曝光图像融合框架,相比于其他方法可以更精准地指导网络训练,提升了多曝光图像融合效果。

主权项:1.一种基于ResNet+DenseNet的多曝光图像融合方法,其特征在于,包括以下步骤:步骤1、从训练集中获取同一场景的多批次源图像;步骤2、从其中一批次源图像中获取一对过曝光源图像I1和欠曝光源图像I2;步骤3、获取损失函数参数;3.1、通过DenseNet网络对源图像I1和源图像I2进行融合,得到融合图像;3.2、分别计算源图像I1和源图像I2与融合图像之间的结构相似度和均方差;3.3、通过ResNet网络提取源图像I1和源图像I2的特征,分别计算其信息丰富度,并进行归一化处理,获得各自的信息丰富度权重ω1和ω2,ω1+ω2=1;步骤4、根据步骤3获得的损失函数参数计算损失函数Lθ;Lθ=Lssimθ+αLmseθ其中,θ为DenseNet网络中的网络参数;Lssimθ表示源图像和融合图像的结构相似度损失;Lmseθ表示源图像和融合图像的均方误差损失;α为预设的调节结构相似度损失和均方误差损失权重的超参数;步骤5、在同一批次下,更换另一对过曝光源图像I1和欠曝光源图像I2,并返回步骤3,直至该批次所有源图像损失函数计算完成;步骤6、计算该批次下所有源图像损失函数的平均值;步骤7、使用优化器对步骤6所述批次下所有源图像损失函数的平均值进行优化,并更新DenseNet网络中各层的卷积核参数;步骤8、返回步骤2,更换下一批次源图像,直至各批次源图像全部训练完成,完成第一轮训练;步骤9、返回步骤1,对获取的同一场景的多批次源图像再进行下一轮训练,直至完成预设训练轮次,得到训练好的DenseNet网络;步骤10、利用训练好的DenseNet网络对输入的同一场景下两个曝光度不同的源图像进行融合。

全文数据:

权利要求:

百度查询: 中国科学院西安光学精密机械研究所 基于ResNet+DenseNet的多曝光图像融合方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。