买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种基于总广义全变分的低剂量CT深度展开网络_太原科技大学_202410043602.9 

申请/专利权人:太原科技大学

申请日:2024-01-11

公开(公告)日:2024-04-12

公开(公告)号:CN117876593A

主分类号:G06T17/00

分类号:G06T17/00;G06N3/0464;G06N3/048

优先权:

专利状态码:在审-实质审查的生效

法律状态:2024.04.30#实质审查的生效;2024.04.12#公开

摘要:本发明属于低剂量CT图像重建技术领域,具体公开了一种基于总广义全变分的低剂量CT深度展开网络,具体技术方案为:结合了两种具有互补作用的正则化项——TGV正则化项、自适应一致性正则化项,构建出整体低剂量CT重建任务的目标函数,对所构建的整体目标函数进行子问题分解进而利用不同的优化算法对分解出的两个子问题进行推导求解,并将迭代过程严格对应于神经网络,所有的参数都可以通过网络进行端到端训练自动学习,能够有效地重建低剂量CT,提高了重构图像的质量。

主权项:1.一种基于总广义全变分的低剂量CT深度展开网络,其特征在于,构建X射线CT成像过程的观测模型:g=Au+n1其中,g为观测到的带噪声的投影数据,A为系统矩阵,u为期望重建出的无噪声CT图像,n为投影数据域噪声;使用该观测模型重建表述为最小化代价函数: 基于模型的重建任务优化问题为: 其中,R.为正则化项,||.||2为二范数;定义总广义全变分自适应一致性方法为: 其中,TGV.为总广义全变分正则化项,J.为细节一致性正则化项,α为总广义全变分正则化项的调优参数,γ为细节一致性正则化项的调优参数;图像u的原始总变分定义为: 其中,Ω为有界域,为图像f的梯度;二阶总广义全变分为: 其中,Ω为有界域,为图像f的梯度,弱对称导数为Radon矩阵度量,α0和α1用来平衡一阶和二阶导数项;一致性先验简化为: 其中,I为单位矩阵,W为对角一致性矩阵,f为图像,||.||2为二范数;引入自适应的非线性滤波算子G.来代替W,得细节一致性先验: 因此,细节一致性先验作为第二项正则化项;引入辅助参数v,等式4转换为有约束的优化: 其中,u为期望重建出的无噪声CT图像,v为引入的辅助参数,g为观测到的带噪声的投影数据,A为系统矩阵,TGV.为广义差分正则化项,J为细节一致性正则化项,α为总广义全变分正则化项的调优参数,γ为细节一致性正则化项的调优参数,上述有约束优化9转化为等价的非约束优化10: 其中,u为期望重建出的无噪声CT图像,v为引入的辅助参数,g为观测到的带噪声的投影数据,A为系统矩阵,TGV.为广义差分正则化项,J.为细节一致性正则化项,α为总广义全变分正则化项的调优参数,γ为细节一致性正则化项的调优参数,β为约束v和u之间相似性的变量惩罚参数,该优化通过分别交替求解两个独立的子问题11、12来解决: 结合上述两个正则化项的形式,两个独立子问题11、12具体化为等式13、14: 其中,u为期望重建出的无噪声CT图像,v为引入的辅助参数,为参数v的梯度,g为观测到的带噪声的投影数据,A为系统矩阵,TGV.为广义差分正则化项,J.为细节一致性正则化项,I为单位矩阵,G.为非线性滤波算子,α为总广义全变分正则化项的调优参数,γ为细节一致性正则化项的调优参数,β为约束v和u之间相似性的变量惩罚参数,α0和α1用来平衡一阶和二阶导数项;为了最小化等式13,使用一阶原始对偶算法将等式13作为凸凹鞍点问题,根据对偶原理,等式13转化为等式15: 其中,q和z均为对偶变量,A为系统矩阵,v为引入的辅助参数,为参数v的梯度,g为观测到的带噪声的投影数据,Q={q∈R2NN|||q||∞≤α1},Z={z∈R3NN|||z||∞≤α0},设和分别表示凸集Q和Z上的欧几里得投影,关联投影计算如下: 利用原始对偶算法对等式15进行优化求解,更新过程分为五个步骤:更新投影数据p;更新图的一阶变量q;更新图的二阶变量z;更新新引入的变量w;更新图v,五个步骤分别对应于等式18a~18e: zk+1=ProjZ[zk+ρ∈wk]18cwk+1=wk+τqk+1+τdiv2zk+118dvk+1=uk-τATpk+1+τdiv1qk+118e其中,div、ε、为一阶有限差分逼近微分算子,A为系统矩阵,k为迭代的次数,div2*=-∈,通过式18a~18f的更新,得到第k个阶段中间变量v更新的结果vk+1,利用vk+1对第二个子问题12进行求解:细节一致性先验在像素域中执行约束,等式14写为: 其中,F.为从低维图像转化到高维空间的算子,I为单位矩阵,G.为非线性滤波算子,γ为细节一致性正则化项的调优参数,β为约束v和u之间相似性的变量惩罚参数,使用自适应非线性滤波函数K.来替代,令Fv=V,Fu=U,即得: 其中,γ为细节一致性正则化项的调优参数,β为约束v和u之间相似性的变量惩罚参数,使用可靠性矩阵∧代替I作为自适应权重约束u-Gu,第二个子问题12转化为等式21: 令Uk+ΔU=U,KUk+ΔU用在第k次迭代周围的Taylor级数来近似:KUk+ΔU≈KUk+JkΔU22其中,Jk为雅可比矩阵,即得到: 其中,第二项和第三项对ΔU趋于零,当U在Uk附近时,得到近似的结果,利用该结果将等式21进行转化,即为: 将等式24看作二次优化问题,利用梯度法把等式24梯度约束为0得:I+γ∧T∧U=V+γ∧T∧KUk25根据可靠性矩阵的定义知∧=Da1,...,al,...,anm为对角可靠性矩阵,推得I+γ∧T∧是可逆对角矩阵为: 进而,得到像素级迭代方程: 其中,[Uk+1,l]代表张量的第l个元素,γ为细节一致性正则化项的调优参数,al为对角矩阵∧=Da1,...,al,...,anm的第l个对角元素,而θl∈θ,则有:[Uk+1,l]=θl[V,l]+1-θl[kUk,l]28张量形式即为: 其中,为张量积,而Fv=V,Fu=U,ΦU=u且有第一个子问题11更新的结果vk+1,第二个子问题12更新的结果为: 其中,Φ.代表从高维特征空间向低维图像空间的转化算子,F.为从低维图像转化到高维空间的算子;求解整体总广义全变分自适应一致性方法模型,将等式18a~18e每次更新所涉及的变量级联并放入卷积神经网络自动地进行学习各个变量之间的关系,即18a~18e网络化后变为:pk+1=CNN[Concatpk,Auk,g]31a zk+1=CNN[Concatzk,∈wk]31cwk+1=CNN[Concatwk,qk+1,div2zk+1]31dvk+1=CNN[Concatuk,ATpk+1,div1qk+1]31e其中,p为投影数据;q为图的一阶变量,z为图的二阶变量;w为新引入的变量;v为图,Concata,b,c为将a,b,c三个变量级联起来的操作,CNN[.]为将[.]中的变量放入卷积神经网络进行自动地学习变量之间的运算关系,并进行对应变量更新。

全文数据:

权利要求:

百度查询: 太原科技大学 一种基于总广义全变分的低剂量CT深度展开网络

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。