论文部分内容阅读
关于机器人手眼关系的研究是视觉信息更好地应用于机器人领域的一个重要环节,逐渐成为该领域的研究热点。手眼视觉系统能够从摄像机获取的图像信息出发,计算空间物体的位置、形状等几何信息,实现空间目标定位。它在恶劣环境中的装配、焊接、维修、搬运等工作中,能够代替人类劳动,因此有着广泛的应用前景。本文主要研究手眼视觉系统的目标定位方法,实现了两种标定算法的参数获取过程,并且详细地比较了二者的算法实现、实验过程以及有效性。手眼系统的标定内容主要包括两部分:摄像机内部参数和手眼相对几何关系(包括旋转矩阵和位置矢量),在本课题中,这两种算法的数学模型是相同的,都是基于“黑箱”思想,把摄像机内部参数和手眼关系旋转部分作为一个整体矩阵来获得,在文中这个整体矩阵称为常数矩阵。其中,第一种算法是基于恒定旋转矩阵的,即末端执行器与机器人基坐标系的旋转关系保持不变的情况下,摄像机做一次沿光轴方向的移动,得到已知参考点的两幅图像,利用这两幅图像就可以同时获得常数矩阵和位置矢量;第二种算法是基于主动视觉系统的自标定方法,不需要已知参考物,借助摄像机作平移运动时得到的FOE点,分两步实现系统的参数标定,首先通过做至少四次已知运动参数的纯平移运动得到常数矩阵,然后借助常数矩阵再做两次带旋转的运动就可以得到手眼关系位置矢量部分。基于实验室现有的MOTOMAN机器人视觉平台,利用VC++和Matlab联合编程,完成了两种标定算法的软件系统。根据标定过程和标定结果,得到实验结论:第一种算法在标定过程中,摄像机沿光轴运动一次就可得到标定结果,但是要求标定参考点坐标已知,而且必须满足摄像机光轴与末端Z轴精确平行这个约束条件,否则,标定高度越高误差越大,而在实际中这个约束条件很难满足;第二种算法是自标定方法,不需要已知参考物,仅利用摄像机运动过程中图像之间的对应关系进行标定,在实现过程中并没有约束条件,从实验结果看,这一算法的标定精度能够达到工业要求,是一种实用的可以广泛推广的定位方法。