Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心)王鑫获国家专利权

齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心)王鑫获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心)申请的专利基于扩散模型的自适应双边蒸馏个性化联邦学习方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119358708B

龙图腾网通过国家知识产权局官网在2025-06-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411931128.X,技术领域涉及:G06N20/00;该发明授权基于扩散模型的自适应双边蒸馏个性化联邦学习方法是由王鑫;王振豪;杨明;吴晓明;李东润;于小洋;穆超;陈振娅;刘臣胜;贺云鹏设计研发完成,并于2024-12-26向国家知识产权局提交的专利申请。

基于扩散模型的自适应双边蒸馏个性化联邦学习方法在说明书摘要公布了:本发明属于联邦学习的技术领域,更具体地,涉及基于扩散模型的自适应双边蒸馏个性化联邦学习方法。所述方法通过设计一种指导机制,使全局模型与本地模型之间进行相互蒸馏,从而实现知识的高效传递,增强个性化模型对客户端特定数据分布的适应性。同时,引入条件扩散模型生成高质量的伪数据,并利用这些伪数据对聚合后的全局模型进行微调。该过程不仅有效弥补了局部‑全局相互蒸馏过程中可能丢失的全局信息,还进一步优化了全局模型的表现。通过结合相互蒸馏和条件扩散微调技术,本发明在保护数据隐私的同时,实现了个性化性能与全局泛化能力的平衡,适用于非独立同分布non‑IID数据环境下的多客户端协作场景。

本发明授权基于扩散模型的自适应双边蒸馏个性化联邦学习方法在权利要求书中公布了:1.基于扩散模型的自适应双边蒸馏个性化联邦学习方法,其特征在于,所述方法包括: S1、服务器初始化全局模型,将初始的全局模型广播发送给各个参与的客户端; S2、客户端接收服务器传来的全局模型,客户端利用本地数据对接收到的全局模型和本地的局部模型进行训练,得到局部损失和全局损失,然后,利用本地数据对全局模型和本地的局部模型进行相互蒸馏,并利用局部损失和全局损失来对蒸馏过程进行指导,得到本地全局模型;同时,客户端利用本地数据和类别向量来训练本地条件扩散模型得到本地的局部生成器;其中,所述本地数据为图像数据; S3、客户端将调整后的本地全局模型和本地的局部生成器发送至服务器; S4、服务器根据客户端的本地数据量将收到的本地全局模型进行聚合,得到聚合后的全局模型;然后利用余弦相似度来计算本地全局模型和聚合后的全局模型的相似度;其中,所述本地数据为图像数据; 所述S4具体步骤如下: 服务器对全局模型根据其本地的数据量进行全局聚合,公式如下: (1) 在式(1)中,是第轮聚合后的全局模型,N代表参与聚合的客户端总数,代表客户端j的本地数据量,代表所有客户端的数据总量,代表第i轮的客户端j的全局模型; 聚合完成后,服务器使用余弦相似度来计算各个本地的全局模型和聚合后的全局模型之间的相似度,其计算过程如下所示: (2) 在式(2)中,是计算本地的全局模型和聚合后全局模型的初步相似度,代表第i轮的客户端k的全局模型参数向量,代表第i轮聚合后的全局模型参数向量,和表示将和归一化为单位向量; 随后将进行标准化处理,如公式(3)所示: (3) 在式(3)中,是第轮客户端的本地全局模型和聚合后的全局模型的相似度,满足; S5、利用相似度来对接收到的本地的局部生成器进行加权聚合,得到一个能够产生全局伪数据的全局生成器,具体步骤如下: 根据计算得到的相似度,对各个局部生成器进行加权聚合,其计算公式如(4)所示: (4) 在式(4)中,代表第i轮聚合后的全局生成器,代表第轮客户端的本地全局模型和聚合后的全局模型的相似度,代表第i轮客户端k的本地生成器; S6、服务器利用全局生成器生成的全局伪数据对聚合后的全局模型和历史全局模型进行知识蒸馏,进一步优化全局模型; 首先利用全局生成器生成全局伪数据,然后选择前轮的全局模型进行加权聚合,得到聚合后的前轮的全局模型参数,具体公式如(5)所示: (5) 在式(5)中,代表前m轮全局模型参数的平均值,代表第i-j轮的全局模型参数向量,m表示选择前m轮的全局模型参数,且,其中,代表客户端和服务器的通信轮数; 随后,再根据得到的和对进行知识蒸馏:首先,计算蒸馏过程所使用的学生和教师模型的概率分布: (6) (7) 式(6)和(7)中,是经过平滑处理后的教师模型的概率分布,是经过平滑处理后的学生模型的概率分布,代表教师模型在全局伪数据上的输出logits,代表学生模型在全局伪数据上的输出logits,代表蒸馏温度; 接下来,计算学生模型的概率分布和教师模型的概率分布之间的KL散度: (8) 式(8)中,用于抵消概率分布平滑带来的梯度缩放; 通过最小化KL散度,来更新,从而达到微调的效果,其公式如(9)所示: (9) 在式(9)中,表示学习率,用于控制每次更新的步长大小,表示损失函数的梯度; S7、服务器将优化后的全局模型重新广播发送给各个参与的客户端,用其更新本地的全局模型参数,重复上述步骤S1-S6,直到达到预设的轮次后结束,得到最终微调后的全局模型,所述全局模型为CNN模型,用于处理图像数据。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人齐鲁工业大学(山东省科学院);山东省计算中心(国家超级计算济南中心),其通讯地址为:250000 山东省济南市长清区西部新城大学科技园;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。