当前位置:主页 > 科技论文 > 网络通信论文 >

3D-HEVC深度图编码的率失真优化方法研究

发布时间:2017-06-07 18:19

  本文关键词:3D-HEVC深度图编码的率失真优化方法研究,,由笔耕文化传播整理发布。


【摘要】:三维视频因其提供生动的视频体验受到人们大量关注。为了迎合市场需求,视频标准化组织运动图像专家组(Moving Picture Experts Group,MPEG)于2011年着手制定支持三维视频应用的新一代视频编码标准的扩展标准(High Efficient Video Coding based 3D video coding standard,3D-HEVC)。多视点视频加深度格式因具有良好的兼容性和优秀的灵活性被选为3D-HEVC的通用数据格式。该数据格式支持解码端合成一定范围内的虚拟视频,同时也对编码器的编码性能提出更高的要求。视频编码系统的率失真优化指的是基于率失真优化理论选择最优的编码参数。3D-HEVC重建深度图用于合成虚拟视图而非直接观看,因此深度编码时采用基于虚拟视图失真的率失真优化技术选取最优编码参数。合成视图失真变化量是一种典型的虚拟视图失真计算准则,其具有失真计算准确和高计算复杂度的特点。为了降低深度图编码复杂度,本文探索并提出两个解决方法。论文提出一种基于模型的虚拟视图失真预测方法。此方法首先使用原始纹理图和原始深度图合成虚拟视图,将像素点分为非第一被遮挡点、第一被遮挡点、空洞点和插值点共四种类别;然后在编码深度图时根据记录的像素点类别采用不同的虚拟视图失真计算模型;最后叠加所有像素点的失真作为当前虚拟视图的失真。在3D-HEVC参考软件HTM11.0中实现所提方法,相比于编码复杂度相近的虚拟视图失真预测方法,所提方法编码效率有所提升。论文针对基于合成的虚拟视图失真计算方法提出一种渐进式的率失真优化方法。本文将深度图率失真代价计算分为比特数代价、深度图自身失真代价和虚拟视图失真代价三个阶段。每个阶段的累计率失真代价都与临时最小率失真代价比较,若小于,则计算后续阶段的率失真代价;若大于或等于,则立刻淘汰此模式。在虚拟视图失真代价计算阶段,需计算多个位置的虚拟视图失真,每得到一个虚拟视图失真便与临时最小率失真代价进行比较。所提方法与3D-HEVC参考软件HTM11.0相比,可提前截止非最佳模式率失真代价的计算以降低复杂度,在引入0.1%的码率增加量的同时降低36.9%的深度图编码复杂度。
【关键词】:三维视频编码 率失真优化 深度图编码 合成视点 失真估计
【学位授予单位】:西安电子科技大学
【学位级别】:硕士
【学位授予年份】:2015
【分类号】:TN919.81
【目录】:
  • 摘要5-6
  • ABSTRACT6-10
  • 符号对照表10-11
  • 缩略语对照表11-14
  • 第一章 绪论14-18
  • 1.1 研究背景与意义14-16
  • 1.2 论文的主要工作16
  • 1.3 论文的组织结构16-18
  • 第二章 HEVC关键编码及优化技术18-28
  • 2.1 HEVC划分结构18-20
  • 2.2 预测编码技术20-23
  • 2.2.1 帧内预测编码20
  • 2.2.2 帧间预测编码20-23
  • 2.3 率失真优化技术介绍23-26
  • 2.3.1 率失真理论23-24
  • 2.3.2 视频编码系统中率失真优化方法24-26
  • 2.4 率失真优化技术在模式选择方面的应用26-27
  • 2.5 本章小结27-28
  • 第三章 3D-HEVC的关键编码及优化技术28-34
  • 3.1 3D-HEVC编码结构28
  • 3.2 虚拟视图合成方法28-32
  • 3.2.1 快速一维视点合成方法29-30
  • 3.2.2 可选择视点合成方法30-32
  • 3.3 基于虚拟视图失真的率失真优化32
  • 3.4 本章小结32-34
  • 第四章 基于模型的虚拟视图失真预测及改进34-46
  • 4.1 引言34
  • 4.2 虚拟视图失真分析34-38
  • 4.2.1 深度图特性分析34-35
  • 4.2.2 虚拟视图失真预测模型分析35-38
  • 4.3 基于像素点分类的失真预测模型38-42
  • 4.3.1 像素点分类39-40
  • 4.3.2 不同类型的像素点对应的计算方法40-41
  • 4.3.3 失真预测方法流程41-42
  • 4.4 实验结果与性能分析42-45
  • 4.5 本章小结45-46
  • 第五章 基于合成的虚拟视图失真计算及优化46-56
  • 5.1 引言46
  • 5.2 深度图编码的率失真优化方法及改进46-51
  • 5.2.1 基于合成的虚拟视图失真计算方法46-48
  • 5.2.2 深度图编码的率失真优化48-49
  • 5.2.3 渐进式率失真优化方法49-51
  • 5.3 实验结果和性能分析51-54
  • 5.3.1 分析性能51-53
  • 5.3.2 分析视点合成方法跳出率53
  • 5.3.3 分析错误跳出率53-54
  • 5.4 本章小结54-56
  • 第六章 总结与展望56-58
  • 参考文献58-62
  • 致谢62-64
  • 作者介绍64-65

【相似文献】

中国期刊全文数据库 前10条

1 左一帆;安平;张兆杨;;基于图割的高质量深度图获取方法[J];电视技术;2011年15期

2 张艳;安平;张秋闻;王奎;张兆杨;;恰可察觉深度差异模型的深度图优化方法[J];光电子.激光;2012年07期

3 左宇鹏;;基于深度图压缩的边界自适应上采样方案[J];计算机与现代化;2014年05期

4 杨超;安平;何宛文;王健鑫;张兆杨;;一种用于深度图编码的虚拟视失真估计模型[J];光电子.激光;2014年07期

5 温宇强,李德华;多视角深度图融合方法综述[J];计算机与数字工程;2003年04期

6 叶长明;蒋建国;詹曙;S.Ando;;不同姿态人脸深度图识别的研究[J];电子测量与仪器学报;2011年10期

7 左一帆;安平;马然;沈礼权;张兆杨;;深度图时域一致性增强[J];光电子.激光;2014年01期

8 朱波;蒋刚毅;张云;郁梅;;面向虚拟视点图像绘制的深度图编码算法[J];光电子.激光;2010年05期

9 周娟;李勇平;黄跃峰;;基于强度图和深度图的多模态人脸识别[J];计算机工程与应用;2012年25期

10 李思宇;李胜;王衡;汪国平;;利用深度图优化的自然光束体构建与绘制[J];计算机辅助设计与图形学学报;2011年07期

中国重要会议论文全文数据库 前3条

1 陈东;杨生鹏;庄严;王伟;;基于视觉信息的三维激光点云渲染与深度图构建[A];第二十九届中国控制会议论文集[C];2010年

2 刘伟锋;张卓;王延江;;基于光线衰减的深度获取方法[A];中国自动化学会控制理论专业委员会B卷[C];2011年

3 张帅;付宏杰;;基于Kinect的多点触控系统研究与实现[A];第六届全国信号和智能信息处理与应用学术会议论文集[C];2012年

中国博士学位论文全文数据库 前10条

1 李贺建;三维视频中基于FPGA的实时深度估计研究与应用[D];上海大学;2015年

2 马祥;提高三维视频深度编码性能的技术研究[D];西安电子科技大学;2015年

3 葛川;三维视频的高效压缩及资源分配算法研究[D];山东大学;2015年

4 邓慧萍;3D视频的深度图优化与深度编码方法研究[D];华中科技大学;2013年

5 高凯;立体视频深度图提取及深度序列编码技术研究[D];吉林大学;2013年

6 罗雷;基于深度图绘制的三维视频编码技术研究[D];浙江大学;2013年

7 霍智勇;自由视点视频深度图估计的关键技术研究[D];南京邮电大学;2013年

8 韦虎;三维外形测量系统中的数据处理关键技术研究[D];南京航空航天大学;2010年

9 张秋闻;自由视点视频深度编码关键技术研究[D];上海大学;2012年

10 程光;人机交互系统中手势和姿势识别算法的研究[D];清华大学;2014年

中国硕士学位论文全文数据库 前10条

1 宋剑军;三维视频深度图优化编码的研究[D];电子科技大学;2015年

2 祝风翔;基于图像的深度获取方法研究[D];浙江大学;2016年

3 吴洁;面向铁路线路视频的三维场景理解[D];北京交通大学;2016年

4 刘瑞珍;3D视频的深度图编码研究[D];太原科技大学;2015年

5 赵利军;3D视频中深度图编码及滤波技术研究[D];太原科技大学;2015年

6 罗志丹;阵列相机成像的深度估计问题研究[D];北方工业大学;2016年

7 杨狄;基于深度图的三维内窥镜图像处理软件研发[D];浙江大学;2016年

8 程时文;两视点的深度图合成算法研究[D];福州大学;2014年

9 陈悦;基于快速图像匹配的深度图获取与虚拟视点绘制[D];福州大学;2014年

10 贾陆洋;基于深度线索的深度图生成技术研究[D];华南理工大学;2016年


  本文关键词:3D-HEVC深度图编码的率失真优化方法研究,由笔耕文化传播整理发布。



本文编号:429927

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/wltx/429927.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户07014***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com