论文部分内容阅读
近年来,实时的三维信息获取技术已经成为计算机视觉领域里非常热门的研究课题。物体的数字三维模型在考古文物建模,城市模型数字化,影视娱乐中的人物场景模型化,逆向工程设计精确模具等领域都具有广阔的应用价值,而快速准确的获取物体的空间三维信息是对物体建模所需的必要条件。目前获取物体三维信息的途径主要有两种:通过求取图像匹配点视差而获得深度的立体匹配方法以及最近出现的以红外传感器为基础的TOF技术。两种技术都具有各自的优点和不足之处:TOF技术可以生成实时深度图,且在纹理缺失的区域也能获得不错的效果,但图像分辨率低。立体匹配可生成高分辨率深度图,但要求场景纹理丰富。本文对这两种技术都做了深入的研究,在分析了两种技术各自的特点之后,构造了一个包含普通摄像机与TOF摄像机的异构摄像机阵列,并通过数据融合的方式结合了两种技术各自的优点,实现了一个能实时获取三维信息的完整系统,主要工作如下:(1)构造了一个包含多个普通CCD传感器摄像机与一个TOF摄像机的异构摄像机阵列,并通过平面模板法获取了各摄像机内参数以及CCD摄像机之间外参数,利用融合深度信息的标定方法获取了TOF摄像机与CCD摄像机之间外参数,从而完成了整个摄像机阵列的标定。(2)将TOF摄像机的原始深度图映射到CCD摄像机视野下,构造了指定摄像机视野下的初始深度图,将初始深度与彩色图像相结合,利用分割的方法锁定了场景中物体的轮廓边缘,通过立体匹配的方法求取了边缘的视差,获得了物体轮廓边缘处的深度。(3)将初始深度图与边缘深度图相融合获得了CCD摄像机视野下的完整深度图,并利用双边滤波的方法获得了最终的高质量深度图。(4)将文中描述的算法在系统上进行了实现,构造了一个完整的三维信息获取系统,包括图像的采集,处理以及最后的结果图多视角显示部分,并利用多线程技术和GPU并行处理加速的方法使系统能够实时输出场景的三维信息,达到了课题预期的指标。