申请/专利权人:天津大学
申请日:2024-01-31
公开(公告)日:2024-04-30
公开(公告)号:CN117952190A
主分类号:G06N3/098
分类号:G06N3/098;G06N3/096;G06N3/0464;G06N5/01
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.05.17#实质审查的生效;2024.04.30#公开
摘要:本发明公开了一种面向大模型神经架构搜索的联邦协同训练方法,属于联邦协同训练技术领域,包括以下步骤:步骤1、在云端进行NAS工作,以大模型拆分的残差块作为搜索空间,拼凑最优模型架构;步骤2、根据各个边缘设备的条件限制,将云端的模型按照预设的退出点切分为适合在边缘设备上进行对应场景训练的较小模型并分配;步骤3、分配得到模型后训练,通过距离聚合,按权重将参数聚合至云端;步骤4、未能聚合的参数,通过知识蒸馏的方式,将参数蒸馏至云端;步骤5、通过节能机制调整边缘设备模型训练过程中的迭代次数,加速模型的收敛。本发明提供了一种面向大模型神经架构搜索的联邦协同训练方法,为实现绿色、高效的边缘计算提供一种新的路径。
主权项:1.一种面向大模型神经架构搜索的联邦协同训练方法,其特征在于,包括以下步骤:步骤1、在云端进行NAS工作,以大模型拆分出的残差块作为搜索空间,拼凑出最优模型架构;步骤2、根据各个边缘设备内存以及算力的条件限制,将拼凑得到的最优模型架构按照预设的退出点切分为适合在边缘设备上进行对应场景训练的较小模型并分配;步骤3、分配得到模型后训练,通过距离聚合,按权重将参数聚合至云端;步骤4、未能聚合的参数,通过知识蒸馏的方式,将参数蒸馏至云端;步骤5、通过节能机制调整边缘设备模型训练过程中的迭代次数,加速模型的收敛。
全文数据:
权利要求:
百度查询: 天津大学 一种面向大模型神经架构搜索的联邦协同训练方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。