买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】面向大模型任务的计算与通信融合的智能算网调度方法_湘江实验室_202410130270.8 

申请/专利权人:湘江实验室

申请日:2024-01-31

公开(公告)日:2024-04-16

公开(公告)号:CN117667360B

主分类号:G06F9/48

分类号:G06F9/48;G06F9/50;G06N3/092;G06N7/01

优先权:

专利状态码:有效-授权

法律状态:2024.04.16#授权;2024.03.26#实质审查的生效;2024.03.08#公开

摘要:本发明实施例中提供了一种面向大模型任务的计算与通信融合的智能算网调度方法,属于数据处理技术领域,具体包括:建立调度优化目标函数;设计深度强化学习环境,将调度优化目标函数设计为奖励函数,并构成马尔科夫过程;对当前大模型任务提取状态特征;深度强化学习的智能体根据时序特征和状态特征做出调度策略;由奖励函数计算预测奖励值;大模型任务在计算节点上执行结束后,得到完整的马尔可夫过程存入经验池;构造分层经验池,对多头注意力层和预测网络进行联合训练,以及,根据预测反馈计算预测奖励构成新的马尔可夫过程对多头注意力层和Q网络进行联合训练。通过本发明的方案,提高了对大模型任务的调度效率、精准度和适应性。

主权项:1.一种面向大模型任务的计算与通信融合的智能算网调度方法,其特征在于,包括:步骤1,根据算力网络的计算资源和通信资源的状态,以最小化算力网络系统能效为目标,建立调度优化目标函数;所述步骤1具体包括:步骤1.1,根据光纤链路长度、链路上光纤设备的插入损耗,以光接收机的最低灵敏度计算算力网络调度中心到各个计算节点的单个波长的最小总功率损耗;步骤1.2,根据算力网络调度中心发送至第个计算节点的任务的数据大小和分配的带宽计算当前大模型任务的数据传输所占用的时隙数量;步骤1.3,根据最小总功率损耗和数据传输所占用的时隙计算当前大模型任务数据传输的总耗能;步骤1.4,根据当前大模型任务的类型计算该任务所需的浮点数计算量、类型计算资源处理任务类型的时间比例参数和计算节点的浮点运算处理速率计算任务执行时间;步骤1.5,根据计算资源上执行任务类型的功耗比例参数和任务执行时间计算任务执行的能耗;步骤1.6,根据计算节点执行当前任务的负载情况和计算资源的容量约束边界,计算算力网络的负载均衡情况;步骤1.7,根据以上信息,建立调度优化目标函数,其中所述优化目标函数的表达式为 ;其中,表示为传输任务所分配的带宽大小,表示算力网络调度中心到第个计算节点的光纤链路上最大传输带宽,表示在时隙开始时,算力网络中同类型的计算资源的总负载,表示计算节点使用计算资源执行大模型计算任务的负载,和是任务的最短时延和总能耗之间的权衡系数,决定调度策略中时延与能耗的相对重要性,表示当前算力网络中正在传输的任务,表示当前算力网络中正在计算的任务,表示进入算力网络调度中心参与调度的总任务,表示单个波束可承载的最大带宽,表示算力网络调度中心到第个计算节点的光纤链路上的最大可用波束,表示在第个计算节点第种计算资源的最大容量,表示算力网络上计算资源总类型数量,约束C1表示大模型任务的卸载策略和的范围,约束C2表示每个大模型任务只能被调度到一个计算节点上,并且只能被分配该计算节点的一种类型的计算资源,此外,每个任务只能被调度一次,约束C3表示限制了分配给每个任务的传输带宽,确保不超过传输至该计算节点光纤链路的最大带宽,避免网络拥塞和通信性能下降,约束C4表示传输该任务数据所需的波束不能超过该光纤链路上的最大可用波束,约束C5表示每个计算节点上每种计算资源类型的分配总和不得超过该计算资源类型的最大计算能力,约束C6表示大模型任务的分配要保证每种类型计算资源的执行负载要在合理范围之内;步骤2,设计深度强化学习环境,将调度优化目标函数设计为奖励函数,并结合算力网络的计算资源和通信资源的状态、调度策略、预测奖励值、真实奖励值和折扣因子共同构成马尔科夫过程;步骤3,基于多头注意力层对算力网络中通信资源和计算资源过去T个时隙的状态进行时序建模得到时序特征,对当前大模型任务提取状态特征;步骤4,深度强化学习的智能体根据时序特征和状态特征做出调度策略,其中,所述调度策略包括通信资源的算力网络计算节点、计算资源的类型和大小、通信资源大小的确定;步骤5,预测网络根据调度策略和计算资源的状态预测大模型任务的执行时间和能耗,结合算力网络直接反馈的负载均衡信息并由奖励函数计算预测奖励值;步骤6,大模型任务在计算节点上执行结束后,根据真实的执行时间、能耗与负载均衡信息由奖励函数计算真实奖励值,得到完整的马尔可夫过程存入经验池;步骤7,深度强化学习与算力网络真实环境交互预设次数后,从经验池中抽取一段窗口大于T的连续经验样本,构造分层经验池,利用分层经验池中真实奖励构成的计算节点的工作轨迹对多头注意力层和预测网络进行联合训练,以及,根据预测奖励值构成新的马尔可夫过程对多头注意力层和Q网络进行联合训练。

全文数据:

权利要求:

百度查询: 湘江实验室 面向大模型任务的计算与通信融合的智能算网调度方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。