论文部分内容阅读
目前,复杂环境下的视觉伺服检测所涉及的各种难题均为图像处理与模式识别领域内较难克服的问题。如何能够在光照不均和低照度下找到视觉伺服检测的目标显得尤为重要,本论文针对在复杂环境下的视觉伺服检测任务,分别研究了各个关键环节,主要研究成果包括如下几个方面:(1)针对视觉注意模式提取的焦点存在关联性问题,提出了一种多视觉注意模式融合的复杂场景特征面片提取方法。为了避免复杂环境下各种干扰,首先通过视网膜皮层算法获得良好的图像增强效果,并借鉴了多种视觉注意模式提取视觉焦点的方式,设计了集成视觉注意模式;在这种集成视觉注意模式的提取下获得了初始视觉焦点集,通过交互信息量与结构相似性两种度量方式形成的关联矩阵判定需要融合的视觉焦点集标号,在视觉焦点融合算法中,将需要融合的视觉焦点进行融合后的能量分配;为了快速得到视觉焦点融合后的特征区域,采用凸包能量分配一致性将关联的视觉焦点区域的能量均匀分布,最终获得了完整性与鲁棒性均符合要求的特征区域;将这种方法应用到复杂场景下并联机器人上的特征面片提取,获得了良好的效果,为复杂环境下双目摄像机标定做好了铺垫。(2)针对复杂环境下难以提取标定参照物的边缘信息,设计了两种边缘检测方法,第一种是短步长仿射变换下的索贝尔提取方法,尽管在速度和效果上能够达到视觉伺服的要求,然而所获得边缘不能保证闭合,这样稍后的边缘矩与边缘仿射不变矩就无法应用;第二种是显著窄带活动轮廓模型,借鉴了C-V模型,设计出先通过视觉注意模式提取视觉焦点,而后将视觉焦点的边缘作为C-V模型的初始边界,并在窄带的基础上进行快速演化,获得了良好的光滑封闭曲线,最后,通过实验验证了所提出的显著窄带C-V模型的有效性和鲁棒性。(3)针对复杂环境下的双目摄像机难以标定的问题,提出了一种边缘矩标定双目摄像机的方法。借鉴仿射不变矩理论,设计了边缘仿射不变矩,并将其用于场景中的目标识别,对在复杂环境下排除非标定参照物提供可靠的保证;在边缘矩的定义下,建立了边缘矩增量与摄像机位姿增量之间的关联方程,并据此获得摄像机的内、外参数,通过实验验证了基于边缘矩的双目摄像机标定能够保证在复杂环境下摄像机标定的准确性与鲁棒性。(4)针对视觉伺服检测中弱纹理图像难以找寻特征点导致无法在复杂环境下进行立体匹配问题,设计了一种适合于弱纹理下视觉伺服的立体匹配方法。借鉴SIFT算法获得了大量的特征描述子,通过Meanshift特征选择机制,设计了Meanshift弱纹理特征描述子,将这种特征描述子应用在立体匹配的同名点特征描述上,通过图割优化算法,标注搜索到的同名特征点,将这些标记过的同名特征点进行分段离散,获得视觉深度图,最后通过验证在复杂环境下,这种弱纹理特征描述子在立体匹配的效果和自适应性上优于SIFT、SURF和NCC获得的结果。论文的最后总结全文的研究工作,并对以后的研究方向和内容进行了讨论和展望