基于遮挡场景的光场图像深度估计方法
发布时间:2021-06-15 10:00
针对在深度估计过程中的遮挡问题,提出一种新的基于多线索融合的光场图像深度估计方法。利用约束性自适应散焦算法和约束性角熵度量算法获取场景的散焦线索、一致性线索,并计算出场景的初始深度、置信度。为增强图像的边缘轮廓信息,通过Canny算子提取中心视角图像的边缘信息,然后利用马尔可夫随机场融合场景的初始深度、置信度及边缘信息,实现图像的高精度深度估计。与其他先进方法相比,所提方法能够较好地解决场景中存在的遮挡问题,获取的深度图精度较高、平滑效果较好,图像边缘保持效果较好。
【文章来源】:光学学报. 2020,40(05)北大核心EICSCD
【文章页数】:7 页
【部分图文】:
Lytro相机成像模型
图2为包含物点空间信息与角度信息的四维(4D)光场图像。当确定角度坐标u和在整个xy坐标空间变化的角度坐标v,就可得到多视角图像,如图3所示。图3 多视角图像
图2 4D光场示意图利用光场图像的多视角特性可进行数字重聚焦[11],从而获得重聚焦图像,其原理如图4所示,其中Π表示微透镜阵列平面,Ψ表示图像传感器平面,Φ表示重聚焦平面,F表示透镜焦距,α表示聚焦系数(聚焦深度),αF表示移动像面与微透镜阵列平面的距离。
【参考文献】:
期刊论文
[1]基于微透镜阵列型光场相机的多目标快速测距方法[J]. 孙福盛,韩燮. 光学学报. 2019(08)
[2]一种聚焦式光场成像去混叠方法[J]. 刘润兴,任明俊,肖高博. 光学学报. 2018(06)
[3]自适应成本量的抗遮挡光场深度估计算法[J]. 熊伟,张骏,高欣健,张旭东,高隽. 中国图象图形学报. 2017(12)
本文编号:3230847
【文章来源】:光学学报. 2020,40(05)北大核心EICSCD
【文章页数】:7 页
【部分图文】:
Lytro相机成像模型
图2为包含物点空间信息与角度信息的四维(4D)光场图像。当确定角度坐标u和在整个xy坐标空间变化的角度坐标v,就可得到多视角图像,如图3所示。图3 多视角图像
图2 4D光场示意图利用光场图像的多视角特性可进行数字重聚焦[11],从而获得重聚焦图像,其原理如图4所示,其中Π表示微透镜阵列平面,Ψ表示图像传感器平面,Φ表示重聚焦平面,F表示透镜焦距,α表示聚焦系数(聚焦深度),αF表示移动像面与微透镜阵列平面的距离。
【参考文献】:
期刊论文
[1]基于微透镜阵列型光场相机的多目标快速测距方法[J]. 孙福盛,韩燮. 光学学报. 2019(08)
[2]一种聚焦式光场成像去混叠方法[J]. 刘润兴,任明俊,肖高博. 光学学报. 2018(06)
[3]自适应成本量的抗遮挡光场深度估计算法[J]. 熊伟,张骏,高欣健,张旭东,高隽. 中国图象图形学报. 2017(12)
本文编号:3230847
本文链接:https://www.wllwen.com/kejilunwen/wulilw/3230847.html