当前位置:主页 > 科技论文 > 网络通信论文 >

3D-HEVC深度图预处理与误码掩盖技术研究

发布时间:2018-01-23 01:07

  本文关键词: HEVC 3D-HEVC 深度图预处理 误码掩盖 出处:《西安电子科技大学》2014年硕士论文 论文类型:学位论文


【摘要】:多视点视频加深度(MVD)由于具有良好的后向标准兼容性,且利用基于深度图像的绘制(DIBR)技术能够在解码端合成任意视点的图像,实现任意位置视点的观看。运动图像专家组(MPEG)将MVD选作新一代三维视频(3DV)编码标准的数据格式。3DV标准可分别基于H.264/AVC和H.265/HEVC标准进行制定。相比于H.264/AVC,由ITU-T和ISO联合制定的新一代视频编码标准HEVC在相同重建质量的前提下,能够节省一半左右的码率,因此3D-HEVC受到了更多关注。由于引入了深度信息,增加了编码码率,因此提高深度图的编码效率成为了3D-HEVC的关键。另外,码率的增加也使得带宽有限传输网络中出现网络拥塞的风险增加,易导致视频信息丢失,解码错误现象。因此,针对3DV的特点制定更加有效的误码掩盖技术具有重要意义。本文重点研究了用于提高深度编码效率的深度图预处理技术以及3DV误码掩盖技术,主要研究内容如下:由于深度估计算法的限制,使得获取的深度图质量较低。具体表现为深度图中物体的边界信息与视频图像中真实的物体边界之间一致性较差,出现了较多的虚假边缘。虚假边缘不仅额外增加了编码码率,也降低了解码端虚拟合成视点图像的质量。为了去除虚假边缘,提高深度图的编码效率,本文提出了一种深度图预处理算法。所提算法根据深度图与视频图像中物体边缘的相关性,利用各向异性扩散方法对虚假边缘进行了平滑。由于所提平滑方法具有各项异性的特点,在滤除虚假边缘的同时,能够对深度图中与视频图像物体边缘相关性较高的真实边缘信息进行有效保护。利用所提算法可以在不降低虚拟合成视点图像质量的前提下,有效地滤除虚假边缘,提高深度图的编码效率。对于在网络传输过程中丢失的帧信息,一般利用其与前后帧的时域相关性进行插帧实现误码掩盖,但是对于运动较为剧烈的前景部分却难以准确恢复。相比于二维视频,MVD信息的视点间相关性也可以用于丢失帧的插值过程。本文提出一种区分前景背景的插帧技术用于实现3DV的误码掩盖。首先通过对前后帧的帧差进行门限比较,初步划分出前景与背景,并进一步利用形态学滤波的方法对进其进行去噪处理。对于背景部分,仍然利用前后帧进行插值;而对于运动较为剧烈的前景部分,则利用相邻视点在当前视点的虚拟合成图像进行填充。所提方法综合利用了时域和视点相关性,提高了重构帧的质量。
[Abstract]:Multi-view video plus depth MVDs have good backward standard compatibility and can synthesize arbitrary view images at the decoding end by using depth image-based rendering (DIBR) technology. Realization of viewing at any position. Moving Image expert Group (MPEG) selects MVD as a new generation of 3D video player 3DVV). Coding standard data format. 3DV standard can be based on H.264% AVC and H.265% HEVC standard, compared to H.264% AVC. The new generation video coding standard HEVC, which is jointly developed by ITU-T and ISO, can save about half of the bit rate under the same reconstruction quality. So 3D-HEVC attracts more attention. Because of introducing depth information and increasing coding rate, improving the coding efficiency of depth map becomes the key of 3D-HEVC. The increase of bit rate also increases the risk of network congestion in limited bandwidth transmission network, which easily leads to the loss of video information and decoding error. It is of great significance to develop a more effective error concealment technique according to the characteristics of 3DV. This paper focuses on the depth map preprocessing technology and the 3DV error concealment technology which are used to improve the depth coding efficiency. The main research contents are as follows: because of the limitation of depth estimation algorithm. The quality of the obtained depth map is low, which is shown by the poor consistency between the boundary information of the object in the depth map and the real object boundary in the video image. There are more false edges. False edges not only increase the coding rate, but also reduce the quality of the decoded virtual composite view image. In order to remove false edges and improve the coding efficiency of depth map. In this paper, a depth map preprocessing algorithm is proposed, which is based on the correlation between the depth map and the object edge in the video image. The method of anisotropic diffusion is used to smooth the false edges. Because the proposed smoothing method has the characteristics of heterogeneity, the false edges are filtered at the same time. It can effectively protect the real edge information which is highly correlated with the object edge of video image in depth map. The proposed algorithm can not reduce the quality of virtual synthetic view image. The false edges are filtered effectively and the coding efficiency of depth map is improved. For the frame information lost in the process of network transmission, the time domain correlation between the frame and the front and rear frames is generally used to implement error concealment. However, it is difficult to recover accurately the foreground part of the motion which is more intense. Compared with two-dimensional video, it is difficult to recover accurately. The interview correlation of MVD information can also be used in the interpolation process of lost frames. In this paper, we propose an interpolation technique to distinguish foreground background to realize the error concealment of 3DV. First, we gate the frame difference between the front and rear frames. Limit comparison. The foreground and background are preliminarily divided, and further denoising is carried out by morphological filtering. For the background part, the interpolation is still carried out by the front and rear frames. For the foreground which is moving intensely, we use the adjacent viewpoint to fill the virtual composite image of the current viewpoint. The proposed method synthetically utilizes the correlation between the time domain and the viewpoint, and improves the quality of the reconstructed frame.
【学位授予单位】:西安电子科技大学
【学位级别】:硕士
【学位授予年份】:2014
【分类号】:TN919.81

【相似文献】

相关期刊论文 前10条

1 左一帆;安平;张兆杨;;基于图割的高质量深度图获取方法[J];电视技术;2011年15期

2 张艳;安平;张秋闻;王奎;张兆杨;;恰可察觉深度差异模型的深度图优化方法[J];光电子.激光;2012年07期

3 左宇鹏;;基于深度图压缩的边界自适应上采样方案[J];计算机与现代化;2014年05期

4 杨超;安平;何宛文;王健鑫;张兆杨;;一种用于深度图编码的虚拟视失真估计模型[J];光电子.激光;2014年07期

5 温宇强,李德华;多视角深度图融合方法综述[J];计算机与数字工程;2003年04期

6 叶长明;蒋建国;詹曙;S.Ando;;不同姿态人脸深度图识别的研究[J];电子测量与仪器学报;2011年10期

7 左一帆;安平;马然;沈礼权;张兆杨;;深度图时域一致性增强[J];光电子.激光;2014年01期

8 朱波;蒋刚毅;张云;郁梅;;面向虚拟视点图像绘制的深度图编码算法[J];光电子.激光;2010年05期

9 周娟;李勇平;黄跃峰;;基于强度图和深度图的多模态人脸识别[J];计算机工程与应用;2012年25期

10 李思宇;李胜;王衡;汪国平;;利用深度图优化的自然光束体构建与绘制[J];计算机辅助设计与图形学学报;2011年07期

相关会议论文 前3条

1 陈东;杨生鹏;庄严;王伟;;基于视觉信息的三维激光点云渲染与深度图构建[A];第二十九届中国控制会议论文集[C];2010年

2 刘伟锋;张卓;王延江;;基于光线衰减的深度获取方法[A];中国自动化学会控制理论专业委员会B卷[C];2011年

3 张帅;付宏杰;;基于Kinect的多点触控系统研究与实现[A];第六届全国信号和智能信息处理与应用学术会议论文集[C];2012年

相关硕士学位论文 前10条

1 李涛;单目视图与多目视图的深度图恢复方法研究[D];清华大学;2009年

2 滕立伟;2D转3D中深度图提取的算法研究与硬件实现[D];中国海洋大学;2013年

3 莫一鸣;基于非参数多线索融合的单目视频深度图估计研究[D];南京邮电大学;2014年

4 卞玲艳;基于深度图的2D转3D视频算法的研究[D];电子科技大学;2015年

5 周葳;二维视频中静态场景深度图获取的算法分析[D];哈尔滨工业大学;2012年

6 陈桦;基于2D转3D的深度图生成技术研究[D];北京邮电大学;2015年

7 王旭;面向绘制质量的深度图压缩感知研究[D];上海大学;2015年

8 张鹏;单目视频中深度图生成算法研究[D];上海交通大学;2010年

9 徐运彬;基于单目运动视频深度图获取技术研究[D];中南大学;2012年

10 李斌;单幅深度图人体关节点定位[D];华中科技大学;2012年



本文编号:1456249

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/wltx/1456249.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户ea034***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com