申请/专利权人:之江实验室
申请日:2024-01-25
公开(公告)日:2024-03-22
公开(公告)号:CN117744838A
主分类号:G06N20/00
分类号:G06N20/00;G06F40/20;G06F9/50
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.04.09#实质审查的生效;2024.03.22#公开
摘要:本发明公开了一种用于大模型参数分区的并行训练加速方法和系统,属于大模型预训练领域,包括:采集大模型训练时数据并行模式下的预配置信息和运行时信息;根据采集到的信息构建模型参数分区的性能决策模型,基于网格搜索算法和改进的通信算法得到包含冗余集的模型参数分区优化方案;结合数据并行模式和模型参数分区优化方案对大模型进行训练,得到包含训练时间开销和GPU显存利用率的当前指标;以当前指标最优为目标对前述步骤进行多次迭代,直到得到最优的模型参数分区方案,并运用于剩下的迭代训练。本发明提出的包含冗余集的模型参数分区方案,提供了一种灵活的大模型训练方案,能够明显节省通信开销,减少整体训练时间,从而提升训练效率。
主权项:1.一种用于大模型参数分区的并行训练加速方法,其特征在于,包括以下步骤:步骤1:利用分布式集群的数据并行模式运行目标大模型,并采集分布式集群的预配置信息和运行时信息;步骤2:根据预配置信息和运行时信息,构建模型参数分区的性能决策模型,根据性能决策模型和网格搜索算法,得到模型参数分区方案,基于改进的通信算法对模型参数分区方案进行调整,得到包含冗余集的模型参数分区优化方案;步骤3:结合数据并行模式和模型参数分区优化方案,构建并行训练方案并按照所述并行训练方案对目标大模型进行训练,得到当前指标值,所述当前指标值包括分布式集群的训练时间开销和GPU显存利用率;步骤4:以当前指标值达到最优为目标,对步骤2和步骤3进行多次迭代,直到达到预设迭代次数或当前指标值达到预设目标值,得到最优并行训练方案,将所述最优并行训练方案运用于剩下的迭代训练。
全文数据:
权利要求:
百度查询: 之江实验室 一种用于大模型参数分区的并行训练加速方法和系统
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。