买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种基于纹理掩蔽效应的图像恰可察觉失真阈值估计方法_宁波大学_202110492823.0 

申请/专利权人:宁波大学

申请日:2021-05-07

公开(公告)日:2023-06-06

公开(公告)号:CN113192083B

主分类号:G06T7/11

分类号:G06T7/11;G06T5/00;G06T5/30

优先权:

专利状态码:有效-授权

法律状态:2023.06.06#授权;2021.08.17#实质审查的生效;2021.07.30#公开

摘要:本发明公开了一种基于纹理掩蔽效应的图像恰可察觉失真阈值估计方法,将原始图像的灰度图像变换为双精度浮点型图像,采用差分盒计数方法计算该图像中的每个图像块的分形维数,将其作为衡量该图像块纹理粗糙度的权值,并得到权值图;根据权值图计算灰度图像中的每个像素点的纹理复杂度,再根据纹理复杂度和亮度对比度得到纹理掩蔽效应,根据亮度对比度得到对比度掩蔽效应;提取出对象边缘;根据纹理掩蔽效应、对比度掩蔽效应和对象边缘对应的二值图像,获得灰度图像中的每个像素点的空间掩蔽效应;根据空间掩蔽效应和亮度自适应性获得初步恰可察觉失真阈值,结合灰度图像的显著图获得最终恰可察觉失真阈值;优点是恰可察觉失真阈值估计准确度高。

主权项:1.一种基于纹理掩蔽效应的图像恰可察觉失真阈值估计方法,其特征在于包括以下步骤:步骤1:将原始图像记为{Iox,y};然后对{Iox,y}进行灰度处理,得到{Iox,y}对应的灰度图像,记为{Iorx,y};其中,1≤x≤R,1≤y≤C,R表示{Iox,y}和{Iorx,y}的宽度,C表示{Iox,y}和{Iorx,y}的高度,Iox,y表示{Iox,y}中坐标位置为x,y的像素点的像素值,Iorx,y表示{Iorx,y}中坐标位置为x,y的像素点的像素值;步骤2:对{Iorx,y}进行尺度变换,将{Iorx,y}变换为双精度浮点型且宽度为R′、高度为C′的图像,记为{Irsx′,y′};然后将{Irsx′,y′}分割成个尺寸大小为8×8的互不重叠的图像块,将{Irsx′,y′}中的第n个图像块记为Blockn;其中,R′=[R÷8]×8,符号为向上取整运算符号,1≤x′≤R′,1≤y′≤C′,Irsx′,y′表示{Irsx′,y′}中坐标位置为x′,y′的像素点的像素值,步骤3:采用差分盒计数方法,计算出{Irs{x′,y′}中的每个图像块的分形维数,将Blockn的分形维数记为Dbcn;然后将{Irsx′,y′}中的每个图像块的分形维数作为衡量该图像块的纹理的粗糙度的权值,得到权值图,记为{Dx′,y′},{Dx′,y′}中与{Irsx′,y′}中的每个图像块位置对应的尺寸大小为8×8的区域中的每个像素点的像素值均为对应的图像块的分形维数,{Dx′,y′}中与Blockn位置对应的尺寸大小为8×8的区域中的每个像素点的像素值均为Dbcn;再对{Dx′,y′}进行尺度变换,将{Dx′,y′}变换为宽度为R、高度为C的图像,记为{Dox,y};其中,{Dx′,y′}的宽度为R′、高度为C′,{Dx′,y′}和{Dox,y}均为双精度浮点型的图像,Dx′,y′表示{Dx′,y′}中坐标位置为x′,y′的像素点的像素值,Dox,y表示{Dox,y}中坐标位置为x,y的像素点的像素值;步骤4:计算{Iorx,y}中的每个像素点的纹理复杂度,将{Iorx,y}中坐标位置为x,y的像素点的纹理复杂度记为FTx,y,FTx,y=log2Dox,yα;并计算{Iorx,y}中的每个像素点的亮度对比度,将{Iorx,y}中坐标位置为x,y的像素点的亮度对比度记为FLx,y,计算{Iorx,y}中的每个像素点的纹理掩蔽效应,将{Iorx,y}中坐标位置为x,y的像素点的纹理掩蔽效应记为MLTx,y,MLTx,y=fFTx,y×fFLx,y,fFLx,y=log21+FLx,y;计算{Iorx,y}中的每个像素点的对比度掩蔽效应,将{Iorx,y}中坐标位置为x,y的像素点的对比度掩蔽效应记为MLx,y,其中,α为常数,α的值为4.85,Gvx,y表示{Iorx,y}中坐标位置为x,y的像素点的垂直方向的梯度,Ghx,y表示{Iorx,y}中坐标位置为x,y的像素点的水平方向的梯度,Gvx,y和Ghx,y均通过采用canny算子计算得到,β1=0.6,β2=2.5,β3=0.1,λ1=16,λ2=26,符号“*”为卷积运算符号;步骤5:将{Iorx,y}转换为双精度浮点型的图像,记为{Iorvx,y};然后采用以及四个滤波模板,分别对{Iorbx,y}中的每个像素点进行滤波处理,得到{Iorbx,y}的四幅滤波图像,对应记为{G1x,y}、{G2x,y}、{G3x,y}以及{G4x,y},将{G1x,y}中坐标位置为x,y的像素点的像素值记为G1x,y,将{G2x,y}中坐标位置为x,y的像素点的像素值记为G2x,y,将{G3x,y}中坐标位置为x,y的像素点的像素值记为G3x,y,将{G4x,y}中坐标位置为x,y的像素点的像素值记为G4x,y,G1x,y=GA*Iorbx,y16,G2x,y=GB*Iorbx,y16,G3x,y=Gc*Iorbx,y16,G4x,y=GD*Iorbx,y16;再根据{G1x,y}、{G2x,y}、{G3x,y}以及{G4x,y},获取最大值图像,记为{MAXx,y},将{MAXx,y}中坐标位置为x,y的像素点的像素值记为MAXx,y,MAXx,y=maxG1x,y,G2x,y,G3x,y,G4x,y;其中,Iorbx,y表示{Iorbx,y}中坐标位置为x,y的像素点的像素值,符号“*”为卷积运算符号,max为取最大值函数;步骤6:计算{Iorbx,y}中的每个像素点的边缘判定值,将{Iorbx,y}中坐标位置为x,y的像素点的边缘判定值记为thx,y,thx,y=EhMAXx,y;紧接着判断{Iorbx,y}中的每个像素点的边缘判定值是否大于0.8,若像素点的边缘判定值大于0.8,则将像素点的边缘判定值重新赋值为0.8;之后采用canny算子提取出{Iorbx,y}中边缘判定值等于0.8的所有像素点,作为对象边缘,并得到二值图像,记为{Ibex,y},{Ibex,y}中值为1的像素点为属于对象边缘的像素点、值为0的像素点为属于非对象边缘的像素点;然后使用半径为3的圆形结构元素对{Ibex,y}进行膨胀处理,使圆形结构元素沿着{Ibex,y}中的对象边缘运动而产生的轨迹上的所有像素点的像素值均为1,使对象边缘更粗壮;接着将膨胀处理后得到的图像中的值0与值1置换,将置换后得到的图像记为{Iimdx,y};再采用模板为5×5且标准差为0.1的高斯滤波器,对{Iimdx,y}中的每个像素点进行滤波处理,得到{Iimdx,y}的高斯滤波图像,记为{Iepx,y};最后将{Iorx,y}中的每个像素点的纹理掩蔽效应与{Iepx,y}中对应坐标位置的像素点的像素值相乘,将得到的图像记为{MLT_epx,y},将{MLT_epx,y}中坐标位置为x,y的像素点的像素值记为MLT_epx,y,MLT_epx,y=MLTx,y×Iepx,y;其中,Eh为常数,Eh=60,Ibex,y表示{Ibex,y}中坐标位置为x,y的像素点的像素值,Iimdx,y表示{Iimdx,y}中坐标位置为x,y的像素点的像素值,对于{Iimdx,y}中的任意一个像素点,若膨胀处理后得到的图像中与该像素点对应坐标位置的像素点的像素值为1,则该像素点的像素值为0,若膨胀处理后得到的图像中与该像素点对应坐标位置的像素点的像素值为0,则该像素点的像素值为1,Iepx,y表示{Iepx,y}中坐标位置为x,y的像素点的像素值;步骤7:计算{Iorx,y}中的每个像素点的空间掩蔽效应,将{Iorx,y}中坐标位置为x,y的像素点的空间掩蔽效应记为JNDSPx,y,JNDSPx,y=maxMLT_epx,y,MLx,y;并计算{Iorx,y}中的每个像素点的亮度自适应性,将{Iorx,y}中坐标位置为x,y的像素点的亮度自适应性记为JNDLAx,y,再利用非线性可加模型NAMM,计算{Iorx,y}中的每个像素点的初步恰可察觉失真阈值,将{Iorx,y}中坐标位置为x,y的像素点的初步恰可察觉失真阈值记为JNDPrex,y,JNDPrex,y=JNDLAx,y+JNDSPx,y-θ×minJNDLAx,y,JNDSPx,y;其中,Bx,y表示{Iorx,y}中以坐标位置为x,y的像素点为中心的尺寸大小为5×5的区域中的所有像素点的亮度值的平均值,θ是为了消除JNDLAx,y与JNDSPx,y之间的重叠而导致恰可察觉失真阈值估计过高而引入的约减系数,θ的值设为0.3,min为取最小值函数;步骤8:采用GBVS,计算{Iorx,y}的显著图,记为{Iogbvsx,y};其中,Iogbvsx,y表示{Iogbvsx,y}中坐标位置为x,y的像素点的像素值;步骤9:对{Iogbvsx,y}中的每个像素点的像素值进行量化处理,将Iogbvsx,y经量化处理后得到的值记为Ieonx,y,再计算{Iorx,y}中的每个像素点的最终恰可察觉失真阈值,将{Iorx,y}中坐标位置为x,y的像素点的最终恰可察觉失真阈值记为JNDfinax,y,JNDfinax,y=JNDPrex,y×Iconx,y;其中,γ1=2,γ2=-2.7。

全文数据:

权利要求:

百度查询: 宁波大学 一种基于纹理掩蔽效应的图像恰可察觉失真阈值估计方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。