论文部分内容阅读
随着网络信息技术的不断发展,人们对视频质量的要求越来越高,随之带来的是视频数据量的不断增大,为了满足传输带宽的需求,视频信号通常需要经过高度压缩。传统的混合视频编码结构通过帧内预测、帧间预测、熵编码等技术来消除时间冗余、空间冗余和统计冗余,从而提高视频的压缩效率,然而这种编码技术没有将人眼的视觉冗余考虑在内。为了将视觉冗余从人眼中移除,人们做了大量的研究,提出了一种能够有效表示人眼视觉冗余的模型——恰可察觉误差模型(Just-Noticeable-Distortion Model,JND Model),将该模型引入到传统的视频编码系统中,能够有效的提高系统的编码效率。本文正是在这种研究背景下展开了基于视觉感知的视频编码算法研究。首先,对H.264/AVC的关键技术作了阐述,如帧内预测、帧间预测、DCT变换等技术,为JND模型与H.264/AVC编码系统的融合作铺垫。其次,阐述了影响人眼视觉冗余的一些特性,如亮度特性、频率效应、马赫效应等,为JND模型的建立提供了理论基础。再次,在研究了Zhang和Wei模型的基础上,提出了一种基于DCT域内的改进JND模型。该模型首先使用了更准确的亮度自适应因子,然后在考虑对比度掩盖效应时采用了更精确的块分类阈值,最后将影响人眼视觉特性的时域掩盖因子精确化。实验表明,本文提出的模型能够更好地与人眼的视觉冗余相吻合最后,将本文提出的JND模型引入到H.264/AVC编码系统中,利用JND模型得到的阈值对预测残差的DCT系数进行压缩,移除人眼不能察觉的失真,从而提高系统的编码效率。实验表明,在不降低视频主观质量的前提下,与引入Wei的模型相比,引入本文模型的系统编码效率有所提高;与传统的H.264/AVC压缩器相比,系统的编码效率提高接近一倍。