本技术方案涉及机器人技术领域,介绍了一种机器人末端夹取精准定位的“手眼协同”快速标定技术。该技术旨在简化非线性优化问题的求解过程,通过分离坐标系的旋转和平移两种相对运动关系,实现快速标定。
背景技术
在航空航天领域,移位机器人已广泛应用于大型构件的智能制造与自动测量过程,移位机器人末端的准确定位是完成加工、抓取、测量等任务的关键。然而,由于机器人固有绝对定位精度低(1mm),需要激光跟踪系统、视觉测量系统等额外的定位系统辅助进行末端定位。“眼在手上”(Eye-in-hand)和“眼在手外”(Eye-to-hand)是两种典型的视觉定位系统架构,其中“眼在手外”是指视觉传感器安装在机械臂外部的固定位置(通常在工作空间的上方或侧面),相机从固定视角对整个工作空间进行观察;“眼在手上”是指视觉传感器安装在机器人的末端执行器上,随着机械臂的运动一起移动,相机可直接观察工作对象和环境,提供与手部运动一致的实时视觉反馈,具有更好的动态跟踪能力、更精确的定位效果、更大的工作范围。
手眼标定是视觉系统精确定位的关键,通过手眼标定可确定相机坐标系(CameraCoordinate System,CCS)和机器人末端坐标系(End Coordinate System,ECS)之间的相对位置关系。标定后,通过视觉系统获得的目标位置可转换至机器人坐标系下,便于控制机器人的姿态。然而,现有针对“眼在手上”视觉系统的标定方法普遍需要特殊标定设备(标定球等)或复杂标定操作(多组复杂机械臂位姿),标定精度一般,同时费时、费力、难以广泛应用于工业现场。
“一种手眼标定方法及装置”(专利号CN202211548085.8)使用靶标图代替了标定块,减少了标定块产生的误差,通过三维点集匹配算法求解目标刚体变换关系,相比点云配准算法可有效降低耗时;线性求解手眼标准方程中,使用旋转轴方式求解旋转矩阵,降低了算法求解难度,并有效避免了三角函数或旋转角度等表示矩阵形式带来的求解异常和失败问题,在保证标定精度的前提下使得标定过程简化且方便维护,解决了目前手眼标定方法精度不够准确、操作不够便利的问题,但仍然无法解决机械臂在运动的自动导引车(Automated Guided Vehicle,AGV)上的移位手眼标定问题。
B.Yu等学者在2023年发表的论文《A robotic spindle end high-accuracypositioning method based on eye-in-hand vision active correction》中在结合激光跟踪仪(Laser Tracker,LT)的基础上,进一步改进了“眼在手上”的标定方法,实现了无双目相机公共视场约束的手眼标定,并通过基于视觉的主动校正实现了高精度机器人末端定位,然而该方法需要多组特征图像和多对复杂的机器人运动进行坐标系变换求解,耗时、复杂、对工人不友好。
因此,本发明提出了一种用于机器人末端准确夹取的“眼在手上”快速手眼标定方法。通过控制机器人末端的轴向运动进行旋转标定,并利用LT进行坐标变换完成平移标定,实现了CCS与ECS之间关系的快速、准确、高效标定。
实现思路