论文部分内容阅读
智能机器人视觉伺服控制是实时图像处理、机器人运动学、控制理论、计算机技术以及实时计算等领域的融合,是计算机视觉研究前沿的一个重要分支。 目前,机器人视觉伺服系统根据视觉反馈信号表示的是3D空间坐标值或是图像特征值而分为基于位置的(position-based)和基于图像的(image-based)视觉闭环反馈两种方式。基于位置的控制方式根据已知的目标几何模型和摄像机模型来估计目标相对于摄像机的位姿,其主要缺陷在于控制精度依赖于摄像机的标定精度,而标定精度又受环境的制约。基于图像的控制方式误差信号直接用图像特征F来定义,直接利用图像特征进行视觉信息反馈伺服控制。该方法可以减少计算延时,并且对摄像机和机械臂的校准误差和目标模型误差具有较强的鲁棒性。其主要缺点有两点:1)为了求得图像特征参数的变化同机器人位姿变化的关系,基于图像的视觉伺服方法必需计算图像雅可比矩阵J(Image Jacobian Matrix)及其逆矩阵。但是,图像雅可比矩阵通常与机械手到图像平面的垂直距离(也称为深度)有关,对于单目视觉伺服系统,深度信息的精确估计是比较困难的。许多文献采用固定雅克比矩阵的方法实现机器人视觉伺服,但是这种方法只能在局部任务空间有效。2)跟踪过程中图像雅克比矩阵可能存在奇异性问题,导致系统不稳定。 本文在总结了目前机器人视觉伺服系统发展状况的基础上,通过构建新的非线性西安理工大学博士学位论文视觉映射模听J将图像特征空间与机器人运动空间紧密地联系起来,提出了基少人!神经网络的视觉伺服方法,并进行了人量的仿真和实验。具体}_作有以卜儿个万面:曰)针对所研究对象MOTOMAN一SV3六口由度机器人,研究了该机器人的j一厂逆 运动‘学问题,提出了新的逆运动学求解方法,建立了其数学模型犯)提出了模糊趋近律变结构控制方法,该方法基于模糊逻辑在线调黔趋近律参 数,井将该方法用于了全数字交流伺服系统中。实验结果表明系统不仅具有良 好的动态品质而且大大减弱了抖动。(3)提出了基于改进GA的相关匹配算法和基于GA的改进不变矩匹配算法,井进 行了大量实验研究,实验结果验证了以上方法的有效性。(4)基于图像雅可比矩阵的视觉伺服基本原理,采用小运动量卜近似图像雅克比矩 阵的方法设计了视觉定位控制器,并针对MoToMAN一sv3机器人进行了仿真 研究。(5)针对基于图像雅可比矩阵的机器人手眼平动视觉跟踪问题,建立了新的视觉映 射模型,提出了基于BP一GA混合学习算法的人一〔神经网络机器人平动视觉跟 踪方法,仿真结果表明该方法控制下系统跟踪误差快速趋近于零。针对平面3 自由度视觉伺服问题,构建了新的视觉映射模型,并基于ANFIS建立了视觉 伺服控制系统,仿真表明该方法控制下系统可以实现对运动目标的跟踪。 (6)建立了MOToMAN一SV3机器人视觉伺服系统硬件实验环境;针对摄像机成像 误差校正问题,提出了基于RBF网络的校正方法,实验验证了方法的有效性; 针对立体视觉定位问题,提出了基于恒定旋转矩阵的机器人手眼立体视觉定位 方法,大大简化了摄像机内外参数标定过程,并取得了良好实验结果;针对本 文提出的新的视觉伺服方法,进行了平面运动目标跟踪实验研究,分析了控制 系统的性能,并为进一步改善系统性能提出新思路。