Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 福州大学牛玉贞获国家专利权

福州大学牛玉贞获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉福州大学申请的专利基于多维度特征融合的无参考图像质量评价方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115937121B

龙图腾网通过国家知识产权局官网在2025-06-13发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211513003.6,技术领域涉及:G06T7/00;该发明授权基于多维度特征融合的无参考图像质量评价方法及系统是由牛玉贞;赖宇;许瑞;兰杰设计研发完成,并于2022-11-28向国家知识产权局提交的专利申请。

基于多维度特征融合的无参考图像质量评价方法及系统在说明书摘要公布了:本发明提出一种基于多维度特征融合的无参考图像质量评价方法及系统,包括以下步骤:步骤S1:将失真图像数据集中的数据进行数据预处理:首先将数据进行配对处理,接着对其做数据增强,并将数据集划分为训练集与测试集;步骤S2:训练获得基于多维度特征融合的无参考图像质量评分预测网络模型;训练过程基于基于多维度特征融合的无参考图像质量评分预测网络,至少包括:全局特征提取子网络、多尺度特征融合模块、多维度特征融合模块和局部注意力模块;步骤S3:将待测图像输入到训练好的基于多维度特征融合的无参考图像质量评分预测网络模型中,输出对应的图像质量评分分数。

本发明授权基于多维度特征融合的无参考图像质量评价方法及系统在权利要求书中公布了:1.一种基于多维度特征融合的无参考图像质量评价方法,其特征在于,包括以下步骤: 步骤S1:将失真图像数据集中的数据进行数据预处理:首先将数据进行配对处理,接着对其做数据增强,并将数据集划分为训练集与测试集; 步骤S2:训练获得基于多维度特征融合的无参考图像质量评分预测网络模型;训练过程基于多维度特征融合的无参考图像质量评分预测网络,至少包括:全局特征提取子网络、多尺度特征融合模块、多维度特征融合模块和局部注意力模块; 步骤S3:将待测图像输入到训练好的基于多维度特征融合的无参考图像质量评分预测网络模型中,输出对应的图像质量评分分数; 步骤S1具体包括以下步骤: 步骤S11:将失真图像数据集中的图像与其对应的标签进行配对处理; 步骤S12:将失真图像数据集中的图像划分为训练集与测试集; 步骤S13:将训练集和测试集中的图像缩放到固定尺寸H×W; 步骤S14:对训练集中的图像进行随机翻转操作,用于训练集数据增强; 步骤S15:对训练集和测试集中的图像进行归一化处理; 所述全局特征提取子网络具体为: 设全局特征提取子网络的输入为图像Iin,其维度为3×H×W;首先采用32×32的卷积将输入下采样为Fv_d,其维度为c×h×w,其中接着向Fv_d加入可学习的位置嵌入信息Pve和维度类型嵌入信息Tve获得Fv_p,其中Pve,Tve和Fv_p的维度都为c×h×w,Tve和Fv_p采用随机初始化,Fv_p的计算公式为: Fv_d=Conv32X32Iin Fv_p=Fv_d+Pve+Tve 其中,Conv32×32*表示用于降维且卷积核大小为32×32的卷积层; 设自编码器个数为N,将Fv_p通过Reshape操作改变维度,由c×h×w变为c×l,其中l=h×w,之后依次经过N个自编码器得到全局特征提取子网络的输出Fv_e,维度为c×l,在第i个自编码器中,设输入为zi-1,首先对其进行层归一化,记为LN1,之后输入多头自注意力,多头自注意力的输出再与zi-1相加获得自编码器中间输出特征接着对进行层归一化,记为LN2,之后输入两层全连接层中,记为MLP1,两层全连接层的输出再与相加获得自编码器输出特征zi,i∈[1,2,…,N],第i个自编码器的计算公式为: 其中,MHSA*表示多头自注意力;最后取第N个自编码器的输出zN作为全局特征提取子网络的输出特征Fv_e; 所述多尺度特征融合模块具体为: 构建操作S,由三个卷积构成,设操作S的输入为x,x的维度为cx×hx×wx,x首先经过1×1的卷积将通道数cx降为再用3×3的卷积将hx和wx降为和之后用1×1的卷积将通道数升为2cx,得到的维度为 的计算公式为: 其中,Conv1×1*和Conv3×3*分别表示卷积核大小为1×1和3×3的卷积层; 设多尺度特征融合模块的输入为Fc_i,其中i∈{1,2,3,4},Fc_i的维度为Ci×Hi×Wi,其中Ci=2Ci-1,先将Fc_1经过操作S并与Fc_2相加得到Fc1_d1,再将Fc1_d1经过操作S并与Fc_3相加得到Fc1_d2,之后Fc1_d2经过操作S得到Fc1_d3;接着将Fc_2经过操作S并与Fc_3相加得到Fc2_d1,再将Fc2_d1经过操作S得到Fc2_d2;再将fc_3经过操作S得到Fc3_d1,最后将Fc_4,Fc3_d1,Fc2_d2和Fc1_d3相加起来得到尺度特征融合模块的输出Fs,Fs的维度为C4×H4×W4,Fs的计算公式为: Fc1_d1=SFc_1+Fc_2 Fc1_d2=SFc1_d1+Fc_3 Fc1_d3=SFc1_d2 Fc2_d1=SFc_2+Fc_3 Fc2_d2=SFc2_d1 Fc3_d1=SFc_3 Fs=Fc_4+Fc3_d1+Fc2_d2+Fc1_d3 其中,S*表示操作S; 所述多维度特征融合模块具体为: 设多维度特征融合模块的输入为Fv_e和Fc,Fv_e的维度为c×l,Fc的维度为C×h×w;首先用1×1的卷积将Fc的通道数C降为c,再向Fc分别加入位置嵌入信息Pce和维度类型嵌入信息Tce获得Fc_p其中Pce,Tce和Fc_p的维度都为c×h×w;采用Reshape操作,记为Reshape1改变Fc_p的维度,由c×h×w变为c×l,其中l=h×w,再输入一个自编码器得到Fc_e,维度为c×l;Fc_e的计算公式为: Fc_p=Conv1×1Fc+Pce+Tce Fc_e=SEncoderReshape1Fc_p 其中,SEncoder*表示自编码器,Conv1×1*表示用于降维且卷积核大小为1×1的卷积层; 将Fc_e和Fv_e输入交叉编码器进行多维度的特征融合获得Ffusion,其维度为c×l;在交叉编码器中,首先对输入Fv_e和Fc_e进行层归一化,记为LN3和LN4,之后输入多头交叉注意力,多头交叉注意力的输出再与Fv_e相加获得交叉编码器中间输出特征接着对进行层归一化,记为LN5,之后输入两层全连接层中,记为MLP2,两层全连接层的输出再与相加获得交叉编码器的输出特征Ffusion,Ffusion的计算公式为: 其中,MHCA*,*表示多头交叉注意力;Ffusion是多维度特征融合模块的输出特征; 所述局部注意力模块具体为: 设局部注意力机制模块的输入为Fin,维度为c×l,将Fin输入到通道池化层,得到输出Fchannel,其维度为1×l,Fchannel的计算公式为: Fchannel=FCConcatCMaxpoolFin,CAvgpoolFin 其中,CMaxpool*表示步长为1的通道最大池化层,CAvgpool*表示步长为1的通道平均池化层,Concat*表示特征在通道维度上进行拼接,FC*表示全连接层; 将Fchannel通过Reshape操作,记为Reshape2,改变维度,由1×l变为l,接着将Fchannel输入两层全连接层中,记为MLP3,采用注意力机制获得模型学习到图像不同的局部区域的重要程度,用以确定局部区域中不同区域对于整体图像质量评价的不同影响;再经过sigmoid函数将数值映射到0,1中,得到特征权重wpatch,将wpatch通过Reshape操作,记为Reshape3,将其维度由l变为1×l,之后用该特征权重作为对局部区域的指导权重,即将最初输入的图像特征Fin乘以权重wpatch再加上Fin,得到局部注意力模块的最终输出为Fpatch,维度为c×l,Fpatch的计算公式为: wpatch=SImgoidMLP3Reshape2Fchannel Fpatch=Fin+Fin×Reshape3wpatch。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人福州大学,其通讯地址为:350108 福建省福州市闽侯县福州大学城乌龙江北大道2号福州大学;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。