买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明公布】一种基于安全探索的多智能体深度强化学习方法_南京航空航天大学_202311811726.9 

申请/专利权人:南京航空航天大学

申请日:2023-12-27

公开(公告)日:2024-04-12

公开(公告)号:CN117875375A

主分类号:G06N3/048

分类号:G06N3/048;G06N3/092;G06N3/084

优先权:

专利状态码:在审-实质审查的生效

法律状态:2024.04.30#实质审查的生效;2024.04.12#公开

摘要:本发明提供一种基于安全探索的多智能体深度强化学习方法,该方法可以在保证智能体任务性能不降低的情况下避免其做出危险动作。该方法在传统多智能体深度强化学习网络中增加了基于长期风险值的G网络,该网络通过深度强化学习预估智能体动作的风险值,利用预估风险值对动作所获奖励进行修正。保证了智能体在探索过程中选择的动作的安全性。进行在训练过程中,本方法使用即时预警值的双经验池,保证了智能体的充分探索。同时,本方法利用深度神经网络对各智能体进行信用分配,利用集中式训练‑分布式执行的框架,使各智能体具有协作能力。

主权项:1.一种基于安全探索的多智能体深度强化学习方法,其特征在于,包括:步骤1:初始化N个智能体,设置学习的轮数并在每轮学习开始时初始化环境;步骤2:设置每轮学习的时刻数K,初始化最大容量为N的安全经验池和危险经验池初始化学习率α、折扣因子γ,设置当前时刻k=1;步骤3:获取各智能体的本地观测oik和当前时刻的状态-动作序列τik,将各智能体的本地观测oik和当前时刻的状态-动作序列τik输入基于折扣奖励的Q网络,得到各智能体的期望奖励值Qi,同时,将各智能体的本地观测oik和当前时刻的状态-动作序列τik输入基于折扣风险值的G网络,得各智能体的预估风险值Gi;步骤4:利用基于折扣风险值的G网络对基于折扣奖励的Q网络进行修正,得到各智能体的修正后期望奖励值步骤5:将各智能体的修正后期望奖励值输入第一混合网络,得到联合动作的预估价值同时将各智能体的预估风险值Gi输入第二混合网络,得到预估总风险步骤6:基于各智能体的修正后期望奖励值和联合动作的预估价值对第一混合网络的参数进行更新,同时基于各智能体的期望奖励值Qi和预估总风险对第二混合网络的参数进行更新;步骤7:重复步骤3-6,每重复一次k增加1直到其与K相等;步骤8:重复次步骤2-6。

全文数据:

权利要求:

百度查询: 南京航空航天大学 一种基于安全探索的多智能体深度强化学习方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。