申请/专利权人:中山大学
申请日:2024-01-16
公开(公告)日:2024-03-22
公开(公告)号:CN117733868A
主分类号:B25J9/16
分类号:B25J9/16
优先权:
专利状态码:在审-实质审查的生效
法律状态:2024.04.09#实质审查的生效;2024.03.22#公开
摘要:本申请公开了基于复合学习和单应性矩阵的机器人3D视觉伺服方法,包括:基于参数化相机模型,确定机械臂各个特征点的当前像素坐标和期望位姿的期望像素坐标;结合单应性矩阵对特征点进行单应性分解,得到当前像素坐标与期望像素坐标的旋转误差和深度比值;根据旋转误差和深度比值,采用归一化复合学习相机参数更新律更新在线标定参数;根据在线标定参数,采用控制器表达式计算力矩;根据力矩,将机械臂调整到期望位姿。本申请实施例能够对在线标定参数进行更为精确的标定,进而使得根据该在线标定参数计算的力矩能够更为精确,解决局部极小值的问题,能够精准地将机械臂调整到期望位姿,完成机器人3D伺服,可广泛应用于机器人技术领域。
主权项:1.基于复合学习和单应性矩阵的机器人3D视觉伺服方法,其特征在于,包括:基于参数化相机模型,确定机械臂各个特征点的当前像素坐标和期望位姿的期望像素坐标;结合单应性矩阵对所述特征点进行单应性分解,得到所述当前像素坐标与所述期望像素坐标的旋转误差和深度比值;根据所述旋转误差和所述深度比值,采用归一化复合学习相机参数更新律更新在线标定参数;根据所述在线标定参数,采用控制器表达式计算力矩;根据所述力矩,将机械臂调整到所述期望位姿。
全文数据:
权利要求:
百度查询: 中山大学 基于复合学习和单应性矩阵的机器人3D视觉伺服方法
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。