买专利,只认龙图腾
首页 专利交易 科技果 科技人才 科技服务 商标交易 会员权益 IP管家助手 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索

【发明授权】一种小天体不规则弱引力场下的四足机器人着陆控制方法_哈尔滨工业大学_202410112248.0 

申请/专利权人:哈尔滨工业大学

申请日:2024-01-26

公开(公告)日:2024-04-26

公开(公告)号:CN117631547B

主分类号:G05B13/04

分类号:G05B13/04

优先权:

专利状态码:有效-授权

法律状态:2024.04.26#授权;2024.03.19#实质审查的生效;2024.03.01#公开

摘要:本发明公开了一种小天体不规则弱引力场下的四足机器人着陆控制方法,属于机器人技术领域,包括以下步骤:步骤1、根据着陆目标小天体的引力场信息在动力学仿真引擎中建立引力加速度模型作为环境信息;步骤2、在动力学仿真引擎中导入机器人模型描述文件;步骤3、建立基于gym的强化学习环境,设计基于近端策略优化强化学习算法的控制器神经网络结构;步骤4、设定训练超参数,通过建立好的强化学习环境及设计的控制器神经网络结构训练控制器,最后通过训练好的控制器控制机器人完成空中调姿及着陆。本发明提供了一种小天体不规则弱引力场下的四足机器人着陆控制方法,可以有效规避小天体不规则引力场下机器人动力学模型难以精确建立的问题。

主权项:1.一种小天体不规则弱引力场下的四足机器人着陆控制方法,其特征在于,包括以下步骤:步骤1、根据着陆目标小天体的引力场信息在动力学仿真引擎中建立引力加速度模型作为环境信息;步骤2、在动力学仿真引擎中导入机器人模型描述文件,文件中含有机器人多刚体模型、自身质量、惯量物理信息以及各关节活动限位、最大运动速度的约束信息;步骤3、建立基于gym的强化学习环境,设计基于近端策略优化强化学习算法的控制器神经网络结构;强化学习环境包括动作空间、观测空间、奖励函数、训练初始化设置;步骤4、设定训练超参数,通过建立好的强化学习环境及设计的控制器神经网络结构训练控制器,最后通过训练好的控制器控制机器人完成空中调姿及着陆;动作空间表示四足机器人各关节的瞬时控制量;动作空间由各关节位置和各关节最大输出力矩组成;观测空间包括当前状态下环境信息及机器人状态信息;当前状态下环境信息为小天体引力场信息,机器人状态信息包括各关节位置、各关节旋转角速度、机体姿态角、机体速度、机体旋转角速度和机体高度;奖励函数,奖励函数由k个任务目标的数值映射与奖励权重乘积之和构成,任务目标包括期望控制器达成的主线任务目标和辅助训练的支线任务目标,主线任务目标的奖励权重高于支线任务目标,在设计奖励权重时考虑任务目标的数值映射的大小、达成任务的难易程度以及任务的预期时间序列;训练初始化设置包括引力场参数、机器人初始位姿及初始速度;设计基于近端策略优化强化学习算法的控制器神经网络结构中采用Actor-Critic架构,其中动作网络和评价网络均采用相同的神经网络模型,各由不少于两层隐含层的多层感知机神经网络组成,每层含128个神经元,激活函数采用双曲正切函数Tanh;依据设定的训练超参数,使用强化学习库pytorch进行训练,使用强化学习可视化工具tensorboard记录训练过程;训练结束后、使用随机生成的初始化环境测试训练好的控制模型,若模型控制效果未达到预期,则需要通过观察tensorboard记录的训练过程中q值以及loss值的变化曲线,其中q值是当前状态下采取动作时获得奖励期望,loss值是损失值,对奖励函数以及超参数进行调整,并重新训练。

全文数据:

权利要求:

百度查询: 哈尔滨工业大学 一种小天体不规则弱引力场下的四足机器人着陆控制方法

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。