申请/专利权人:南京信息工程大学
申请日:2024-01-31
公开(公告)日:2024-04-30
公开(公告)号:CN117952832A
主分类号:G06T3/4053
分类号:G06T3/4053;G06T3/4046;G06N3/045;G06N3/0464;G06N3/0475;G06N3/094
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.05.17#实质审查的生效;2024.04.30#公开
摘要:本发明公开了基于改进SRGAN算法的耐张线夹缺陷图像超分重建法,包括,将待超分重建的图像输入至训练好的基于改进SRGAN算法的超分模型中,得到超分重建后的图像;超分模型的训练步骤如下:对预构建的卷积神经网络模型进行预训练,得到预训练的卷积神经网络模型,获取训练集;定义生成器和相对判别器的损失函数;根据训练集和损失函数,对预训练的卷积神经网络模型进行训练,得到超分模型。本发明一方面对超分模型进行了结构上的改进,另一方面,在训练过程中重新定义了损失函数,以保持生成图像的全局一致性和细粒度细节,能够更好的处理细小的缺陷图像的超分重建工作。
主权项:1.基于改进SRGAN算法的耐张线夹缺陷图像超分重建法,其特征是,包括如下步骤:获取待超分重建的图像;将所述待超分重建的图像,输入至训练好的基于改进SRGAN算法的超分模型中,得到超分重建后的图像;所述超分模型的训练步骤如下:对预构建的卷积神经网络模型进行预训练,得到预训练的卷积神经网络模型,所述预训练的卷积神经网络模型包括基于融合注意力机制的生成器和基于类VGG19网络结构的相对判别器;获取训练集;定义所述生成器和相对判别器的损失函数,所述生成器的损失函数包括感知损失、生成器的相对平均损失、像素损失和全变分损失,所述相对判别器的损失函数包括相对判别器的相对平均损失;根据所述训练集和损失函数,对所述预训练的卷积神经网络模型进行训练,得到超分模型。
全文数据:
权利要求:
百度查询: 南京信息工程大学 基于改进SRGAN算法的耐张线夹缺陷图像超分重建法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。