论文部分内容阅读
机器人目标跟随作为一项涉及机器人运动控制、计算机视觉、传感器融合、机器学习等技术领域的系统性学科技术,在机器人导航定位、人机交互、无人驾驶、灾害救援等领域有极大的研究价值和广阔的应用前景。基于视觉的目标跟随机器人不仅能够适应复杂多变的环境,而且其视角范围广、可视距离远,识别目标的准确率通常远远高于激光雷达传感器。因此,研究基于视觉的目标跟随机器人具有重要而深远的意义。本文总结归纳了基于激光雷达以及各种视觉传感器的目标跟随系统的优缺点,在阐述相机模型、基于深度学习的目标跟踪算法和场景分割算法、A*寻路算法的基础上,详细介绍了基于单目摄像头的机器人目标跟随系统的实现,包括通过单目相机实现目标的精确定位,利用深度学习方法改进和提高机器人远距离目标跟踪和场景识别的能力,通过在极坐标下构建局部地形图,改进并优化基于A星算法的寻路策略,提升了机器人的跟随效率以及对复杂环境的处理能力。本文主要开展了以下工作:(1)在对现有CNN网络模型和算法深入对比研究的基础上,实现并优化了基于GOTURN模型的目标跟踪算法,是的目标跟踪能够实时运行;构建了基于SegNet的卷积神经网络模型用于场景语义分割,手动采集和标定环境数据,增加训练数据规模,并将场景分割模型重新训练,提升语义分割模型分割精度和效率。(2)针对单目相机无法计算像素点空间坐标而导致的无法构建栅格地图的问题,本文提出用目标在世界平面的投影来表示其空间位置,并将所有像素点投影到同一个世界平面下,通过迭代优化的方法计算相机在世界平面的单应,并分解出相机的内外参数,进而计算出像素坐标在世界平面的2D投影,建立图像坐标与实际世界平面坐标的映射关系,最终实现单相机下的目标精确定位。(3)将改进优化的目标跟踪算法以及目标定位算法融合,在大范围内实现对目标的远距离跟随;为了提升机器人跟随效率、降低系统的复杂度,本文提出将欧氏坐标转到极坐标下,完成极坐标下栅格地图的构建;然后将语义分割结果以及目标位置映射到极坐标下的栅格地图中,规划出机器人到目标的最优路径。通过在复杂室内环境以及室外走廊的现场实验,验证了基于单目视觉的机器人目标跟随系统的实时性和有效性。