当前位置:主页 > 科技论文 > 软件论文 >

基于4D光场数据的深度信息获取

发布时间:2017-07-04 03:11

  本文关键词:基于4D光场数据的深度信息获取


  更多相关文章: 深度估计 四维光场数据 视差图 区域匹配 数字重聚焦


【摘要】:光场记录了空间中所有光线的辐照度信息。利用光场相机采集的四维光场数据,包含光线的空间和角度信息,可用于场景的深度信息获取。受场景的复杂性影响,如遮挡区域和平滑纹理区域,其深度估计结果的精度不高。本文提出了一种利用光场数据四维结构信息,实现像素级精度的深度估计算法、基于深度信息的数字重聚焦和窄视角三维表面重构。本文利用了深度与视差的对应关系,将计算深度转换为计算相邻视图间的视差,通过采用二次匹配和分类优化的方法提高视差的计算精度,获取高精度的深度图。首先采用加入权重系数的区域匹配方法,计算出图像中每个像素点的视差信息。分析了匹配过程中误差产生的原因,并给出一种新的置信函数。结合平滑区域和边缘遮挡区域在计算距离测度函数时具有不同值域范围的特点,对误差区域进行分类标识。由此,设计了相应的二次匹配方法和分类优化方法,在降低误匹配概率的同时,兼顾了边界信息保留和区域平滑两个方面。实现每个像素的视差信息的精确估计。利用获取的深度信息实现数字重聚焦,三维重构和视点漫游。根据重聚焦深度和视差的对应关系,给出多视图下基于视差的重聚焦方法,得到聚焦在不同深度的图像。此外,基于成像过程中的几何原理,利用高精度的深度信息计算得到场景的三维坐标,实现窄视角下场景的三维重构。基于计算出的场景三维坐标和成像原理,可以得到视点在深度方向上漫游时,场景所成的图像。本文采用公开的基准光场数据和实拍的光场数据进行算法验证、测试与评估成像精度。结果表明,本文中提出的算法降低了平滑区域和边缘遮挡区域的深度估计误差。与已有的算法相比,新算法具有更好的计算精度。本文研究了基于四维光场数据的高精度深度信息获取方法。这对于视差计算过程中的匹配优化,以及平滑曲面的深度信息获取等理论和应用问题的进一步工作,均有很好的意义。同时对于这种采集方式的研究,也为某些特定应用场合的光场相机设计提供有益的参考。
【关键词】:深度估计 四维光场数据 视差图 区域匹配 数字重聚焦
【学位授予单位】:北京信息科技大学
【学位级别】:硕士
【学位授予年份】:2016
【分类号】:TP391.41
【目录】:
  • 摘要4-5
  • ABSTRACT5-9
  • 第一章 绪论9-14
  • 1.1 研究的背景与意义9-10
  • 1.2 国内外研究现状10-12
  • 1.2.1 光场成像10-11
  • 1.2.2 基于光场数据的深度信息获取11-12
  • 1.3 本文的主要内容与组织结构12-14
  • 1.3.1 本文的主要内容12-13
  • 1.3.2 本文的组织结构13-14
  • 第二章 光场成像基本理论14-25
  • 2.1 光场的概述14-17
  • 2.1.1 光场的定义与参数化表示14-15
  • 2.1.2 光场的获取方式15-17
  • 2.2 四维光场的采样17-18
  • 2.3 重聚焦算法原理18-20
  • 2.3.1 计算成像原理19
  • 2.3.2 数字重聚焦原理19-20
  • 2.4 基于微透镜阵列光场相机算法原理20-24
  • 2.4.1 斯坦福光场相机算法原理21-22
  • 2.4.2 聚焦全光相机算法原理22-24
  • 2.5 本章小结24-25
  • 第三章 光场数据中的深度估计方法25-33
  • 3.1 光场成像中的视差25-26
  • 3.2 基于立体视觉的深度估计26-28
  • 3.3 基于极线图的深度信息获取28-30
  • 3.4 基于Focal Stack的深度信息获取30-32
  • 3.5 本章小结32-33
  • 第四章 基于多视图光场数据的深度信息获取33-45
  • 4.1 区域匹配33-34
  • 4.2 置信函数及二次匹配34-38
  • 4.2.1 置信函数34-35
  • 4.2.2 二次匹配35-38
  • 4.3 视差图优化及深度计算38-40
  • 4.4 基于深度图的应用40-44
  • 4.4.1 数字重聚焦40-42
  • 4.4.2 三维表面重构42-43
  • 4.4.3 视点漫游43-44
  • 4.5 本章小结44-45
  • 第五章 数据实验45-55
  • 5.1 HCI光场数据实验45-51
  • 5.1.1 HCI模拟光场数据实验45-47
  • 5.1.2 HCI实测光场数据实验47-49
  • 5.1.3 误差分析49-51
  • 5.2 实拍光场数据的采集与实验51-54
  • 5.3 本章小结54-55
  • 第六章 总结与展望55-57
  • 6.1 本文主要的研究工作55-56
  • 6.2 进一步的研究工作56-57
  • 参考文献57-60
  • 个人简历 在学期间发表的学术论文与研究成果60-61
  • 致谢61

【相似文献】

中国期刊全文数据库 前10条

1 宋晓炜;杨蕾;刘忠;廖亮;;基于视差矢量特点的视差估计快速算法[J];计算机应用;2012年07期

2 安平,张兆扬;基于立体摄像几何特性的视差匹配快速算法[J];上海大学学报(自然科学版);2000年05期

3 刘佳;安平;张兆扬;;基于对象的预测递归视差估计[J];中国图象图形学报;2005年11期

4 郭大波;卢朝阳;何华君;焦卫东;;一种新的立体视差估计算法[J];西安电子科技大学学报;2007年03期

5 吴书凯;都思丹;李华;;基于半规则网格的视差估计算法[J];计算机应用;2008年04期

6 陈文鑫;陈伟东;朱仲杰;白永强;;基于可变特征基元的视差估计新方法[J];计算机工程与应用;2008年15期

7 庄克成;曾丹;陶江良;张之江;;基于视差估计的视图生成[J];计算机仿真;2010年02期

8 张倩;安平;张兆杨;吕朝辉;;基于视差稠密化的视图合成[J];高技术通讯;2010年08期

9 元辉;李志斌;刘微;;基于色度分割与图割算法的视差估计算法[J];华南理工大学学报(自然科学版);2013年02期

10 胡波;戴万长;肖志坚;吴建平;胡杰;;均值偏移的多视点视差估计新方法[J];计算机应用;2013年08期

中国重要会议论文全文数据库 前5条

1 郁梅;董海涛;蒋刚毅;;基于视差插值与相似度的多视点视差估计算法[A];第一届建立和谐人机环境联合学术会议(HHME2005)论文集[C];2005年

2 魏娜;张为冬;;3D电视视差舒适度客观评价[A];中国新闻技术工作者联合会第六次会员代表大会、2014年学术年会暨第七届《王选新闻科学技术奖》和优秀论文奖颁奖大会论文集(三等奖)[C];2014年

3 邱涛;郁梅;彭宗举;李福翠;徐秋敏;蒋刚毅;;一种交互式多视点系统中的多分辨率视差估计算法[A];第三届和谐人机环境联合学术会议(HHME2007)论文集[C];2007年

4 陈毅滨;蔡灿辉;;基于运动和视差特性的立体视频对象分割算法[A];第十四届全国图象图形学学术会议论文集[C];2008年

5 李立春;周建亮;孙军;尚德生;张伟;许颖慧;杨成;孟彦鹏;;应用单应诱导视差的探测器月面着陆平面选择方法[A];中国宇航学会深空探测技术专业委员会第十届学术年会论文集[C];2013年

中国硕士学位论文全文数据库 前10条

1 薛飞;基于视差的恰可察觉误差模型的立体视频编码研究[D];西安电子科技大学;2014年

2 陈佃文;基于4D光场数据的深度信息获取[D];北京信息科技大学;2016年

3 孔祥军;基于多视点解码流分析的视差预测方法研究[D];吉林大学;2015年

4 张耀;基础矩阵计算及其在立体视差估计中的应用[D];西安电子科技大学;2008年

5 庞耀华;多视角视频编码中视角合成技术研究[D];西安电子科技大学;2009年

6 刘小莉;双目立体视觉稠密视差算法研究[D];重庆大学;2008年

7 张磊;多视点视频编码中运动与视差估计的研究[D];西安电子科技大学;2010年

8 吕小倩;沉浸式视频中三维场景视差提取与精炼的研究[D];山东大学;2009年

9 张程风;立体视频中视差估计研究[D];合肥工业大学;2010年

10 Rojanakat Payomrat;基于神经网络的双目视差估计[D];哈尔滨工程大学;2010年



本文编号:516115

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/516115.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户af360***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com