当前位置:主页 > 科技论文 > 软件论文 >

基于光场相机的深度获取及应用研究

发布时间:2019-10-16 07:32
【摘要】:光场成像技术以及光场理论在各个领域的丰富与发展,使得光场相机在各个领域得到广泛应用。在深度获取方面,虽然光场相机利用自身先拍照后聚焦以及可以获取多视角图像的特点,产生了多种独特的深度生成方法,但仍在深度图像的获取质量及应用方面存在不足。对此,本文利用光场相机的特点对光场图像进行处理,研究更高精度的深度获取及更好的全聚焦图像生成方法,主要工作及创新点如下:1)实现了Lytro光场相机的数字重聚焦算法。首先采用高曝光图像峰值检测法对微透镜阵列中心进行标定;然后利用标定得到的中心坐标数据对原始光场数据进行重映射得到4D光场;最后利用重积分与基变换的方法对获取的4D光场数据进行处理获得光场重聚焦图像。实验验证了该方法的有效性。2)提出了基于交互式图像分割优化光场图像深度的方法。首先采用交互式方法分割出场景中纹理较为复杂的部分;然后利用散焦深度图结合分割出的场景重新定义原始场景的深度范围;最后采用光场图像散焦与相关性结合的方法得到量化级为256的深度图。这里重新定义的深度范围实质就是光场图像的重聚焦范围。利用该方法在不增加深度生成时间的情况下,提高了深度图的整体质量,有利于对生成的深度图像进行后期的处理与应用。实验结果表明所提算法在视觉效果与客观质量对比中均取得了提高。3)提出了深度图像与多幅散焦图像结合生成全聚焦图像的方法。首先利用光场原始图像进行数字重聚焦获取多幅不同深度的散焦图像;其次利用散焦方法生成一幅简单的深度图像;最后利用深度图像确定每幅散焦图像的具体聚焦位置以进行最后的全聚焦图像生成。该方法避免了传统基于图像融合的全聚焦图像生成算法的限制,能够准确地找出散焦图像的聚焦区域进行全聚焦图像生成。实验结果表明所提算法在视觉效果与客观质量对比中均取得了提高。
【图文】:

数字图像,深度相


体表面调制出的相位信息,经过解调相位信息就能获取物体深度的体深度。构光法。结构光法的基本原理为:利用激光光源结合镜面产生的平量深度的物体上,产生可控制的光带或光面结构。之后将产生的光得该光带所产生的数字图像,最后三维坐标由计算机处理被测量的由于其算法简单,体积较小,便于实验之用,因而在深度获取方面度相机[15]获取深度。前面介绍的深度获取方法都需要进行一定的测场景深度。深度相机摒弃了这一做法,可以实时的捕获场景的深度显示出来。如图 1.1 所示为型号 SR4000 的深度相机。00 深度相机采用的是时间飞行法(Time of Flight,即 TOF),该方内部发出的红外脉冲打到被测物体上后,由相机内部的传感器芯片过计算脉冲信号所走的时间来得出场景所处的具体距离就能获取场

坐标表示,光场


技术应用的关键所在。数字重聚焦是后续基于光场相机散工作,也是基于深度的全聚焦图像生成中必不可少的一部论与数字重聚焦入手对光场相机的成像理论与光场图像的并且通过实验验证了光场图像数字重聚焦的有效性。义念最早在 1936 年由 A.Gershun 提出,同时空间中光场的具样光场在三维空间内部的传输特性就得以正确的描述。19布的光线利用七维函数来表示,我们称之为七维全光函数z , , , , t)来表示[10],其中光场在空间中的三维坐标由 x, y方向由 , 来表示,空间中光线的波长由 来表示,光线。由于任一时刻自由空间内传播的光线 是不变的,因此五维全光函数 p( x, y, z , , )[21],如图 2.1 所示。1996 年 Le两个平面对空间中任意带有方向与强度信息的光线进行四
【学位授予单位】:太原科技大学
【学位级别】:硕士
【学位授予年份】:2017
【分类号】:TP391.41

【参考文献】

相关期刊论文 前10条

1 马逸丹;;数字图像处理技术在三维重建中的应用研究[J];数字技术与应用;2016年10期

2 丁江华;韩燮;孙福盛;;基于微透镜阵列的光场图像深度估计[J];科学技术与工程;2016年17期

3 赖思渝;王娟;;一种改进的DCT域压缩图像融合算法[J];网络新媒体技术;2016年03期

4 张岚;;基于小波变换的图像融合[J];现代工业经济和信息化;2016年01期

5 尹晓艮;张晓芳;张伟超;李硕丰;贾纪元;臧华平;田勇志;梁二军;刘晓e,

本文编号:2549869


资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/2549869.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户0768a***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com