申请/专利权人:河海大学
申请日:2023-12-08
公开(公告)日:2024-03-15
公开(公告)号:CN117715193A
主分类号:H04W72/0446
分类号:H04W72/0446;H04W72/50;H04L41/14;G06N3/092
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.04.02#实质审查的生效;2024.03.15#公开
摘要:本发明公开了一种面向超密集网络场景的空口扩展现实业务调度方法,包括:获取当前时隙的系统状态;将当前时隙的系统状态输入训练好的深度强化学习模型中,得到微基站的资源分配给用户设备的动作;根据动作,对扩展现实业务进行调度;深度强化学习模型的获取方法包括:执行循环步骤,直至经验缓冲区存储的交互数据的大小达到预设值;从经验缓冲区中提取至少一部分交互数据作为训练样本;利用训练样本对深度强化学习模型进行训练,利用梯度下降法更新模型的网络参数,得到训练好的深度强化学习模型。将超密集网络场景下的资源调度优化问题建模成马尔科夫决策过程,综合考虑系统长期能量效率和网络的吞吐量,并将XR业务的特性考虑在限制条件中。
主权项:1.一种面向超密集网络场景的空口扩展现实业务调度方法,其特征在于,包括:获取当前时隙的系统状态;将当前时隙的系统状态输入训练好的深度强化学习模型中,得到微基站的资源分配给用户设备UE的动作;根据所述动作,对扩展现实业务进行调度;其中所述深度强化学习模型的获取方法包括:循环执行总循环步骤,直至达到预设要求,得到训练好的深度强化学习模型;其中所述总循环步骤包括:清空经验缓冲区,执行第一循环步骤,直至经验缓冲区存储的交互数据的大小达到预设值;其中所述第一循环步骤包括:获取当前时隙的系统状态st以及下一个时隙的系统状态st+1,将当前时隙的系统状态st输入深度强化学习模型中,得到微基站的资源分配给用户设备UE的动作at;根据动作at进行预计算,判断是否满足服务质量QoS需求;若满足服务质量QoS需求,获取动作at对应的立即奖励rt,将交互数据st,at,rt,st+1放入经验缓冲区中;从经验缓冲区中提取至少一部分交互数据作为训练样本;利用训练样本对深度强化学习模型进行训练,利用梯度下降法更新深度强化学习模型的网络参数。
全文数据:
权利要求:
百度查询: 河海大学 一种面向超密集网络场景的空口扩展现实业务调度方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。