基于光线跟踪的计算全息图快速生成方法
发布时间:2021-11-09 14:29
近年来,三维立体显示技术有了巨大的发展。在众多的立体显示方法中,全息显示可以重建出整个三维场景的全部光波场。除了传统图像所能传递的幅度信息,其还可以表达出光波的相位信息,以此来显示三维场景的深度变化。然而,传统的计算全息图(CGH)生成方法需要很长的计算时间。对此,本论文提出利用光线跟踪技术来实现计算全息图的快速生成。逆向地追踪光线可以渲染效果逼真、高质量的图像,并且可以利用图形处理器(GPU)的高度并行性来大幅减少全息图的计算时间。首先,本论文提出了一种基于光线跟踪技术的高效逼真的计算全息图生成方法。在不同的光照环境下光线被并行地发射和追踪,以此来计算得出全息平面的光波复振幅函数。实验结果证明了这种方法的有效性和高效性,和传统的点云法计算全息图相比,基于100×100条的被跟踪光线,生成一幅具有连续深度变化的全息图并重建其光学再现像的时间减少至约24秒。最后,本论文提出了一种基于光线跟踪技术和波前记录平面(WRP)法的计算全息图实时生成方法。光线被并行地发射和追踪来得到光线和物体表面的碰撞点,以此来计算到达波前记录平面上有效像素范围内的复光波场,然后通过由波前记录平面至全息平面的衍射...
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:67 页
【学位级别】:硕士
【部分图文】:
图1-1人眼观察到物体远近的信息:(a)双目视差?(b)视轴辐合??,二,
从本质上来说,人眼能感知三维世界是因为物体发出的光或者反射光的空间分布不同。正??常人的两只眼睛相距约65毫米左右[2],所以其实每只眼睛看到的空间物体侧面是不同的,??如图1-1?(a)所示,这就是视网膜上的双目视差成像,其可以为大脑提供物体所在位置的远??近信息[3]。如图1-1?(b)所示,在看近处或远处的物体时,双眼的视线分别会向正中会聚或??近似于平行,眼部肌肉控制视轴辐合时人就可以感知三维深度[4]。??维物体?远处^勿点??cdIcd?A??A?A??々丨《?;r:IM?G眼??图1-1人眼观察到物体远近的信息:(a)双目视差?(b)视轴辐合??如今,人们渐渐不再满足于观看二维平面的静态照片和动态视频,进而追求更有立体??感的视觉体验。三维立体显示有两种情况:一种是将空间中三维物体的信息以平面投影或??透视图像等形式展现出来,这种立体感知不是因为双目视差且物体不拥有其他侧面,而是??与人的主观印象有关系[5],如图1-2所示,可以利用前后遮挡、阴影明暗或透视关系等来??感知立体效果[6];另一种是在空间中客观地形成物体立体分布的影像,观看者可以通过移??动来看到物体的不同侧面,并感知到它在空间中的位置,这正是我们所努力追求的理想的??三维立体显示效果。????圓_!??(a)?(b)?(c)??
首先投影显示设备发射出调制好的叠加图像,然后助视眼镜再将左右视差图像分开。??根据调制原理和分光方式的不同,助视式眼镜可以大致分为色差原理[9]、偏振原理[1°]和时??序快门方式M,其原理分别如图1-3所示。??.?WW???醜6QHzW换??⑷?(b)?(C)??图1-3助视式眼镜:(a)色差原理(b)偏振原理(c)时序快门方式??色差眼镜主要利用了补色的原理,一般是红蓝眼镜或蓝绿黄眼镜。视差图像分别被不??同的颜色编码调制在一起,通过不同颜色的滤光片吸收这种颜色的光,左右眼就看到了不??同的视差图像。这种技术原理简单、调制容易、成本低,但人眼看到的色彩失真较严重,??导致立体感不强且长时间观看后影响人眼健康[9]。??2??
【参考文献】:
期刊论文
[1]增强现实技术综述[J]. 侯颖,许威威. 计算机测量与控制. 2017(02)
[2]基于全息光学元件的增强现实3D显示系统[J]. 余文涛,张汉乐,邓欢,王琼华,李大海. 中国激光. 2016(10)
[3]基于GPU加速的光线跟踪渲染算法研究[J]. 陈昱,江兰帆. 武夷学院学报. 2013(02)
[4]集成成像三维显示系统显示性能的研究进展[J]. 赵星,王芳,杨勇,方志良,袁小聪. 中国光学. 2012(03)
[5]数字全息三维显示关键技术与系统综述[J]. 马建设,夏飞鹏,苏萍,潘龙法. 光学精密工程. 2012(05)
[6]计算全息三维实时显示的研究进展[J]. 贾甲,王涌天,刘娟,李昕,谢敬辉. 激光与光电子学进展. 2012(05)
[7]云计算中的并行计算技术分析[J]. 郑文武,李先绪,黄执勤. 电信科学. 2011(12)
[8]Imitating micro-lens array for integral imaging[J]. 王琼华,邓欢,焦甜甜,李大海,王芳宁. Chinese Optics Letters. 2010(05)
[9]GPU通用计算研究[J]. 丁鹏,陈利学,龚捷,张岩. 计算机与现代化. 2010(01)
[10]数字化全息及其在三维显示和检测中的应用[J]. 王辉. 激光与光电子学进展. 2009(08)
博士论文
[1]基于密集视点的计算三维显示若干关键技术研究[D]. 陈铎.北京邮电大学 2017
[2]三维显示中的光场信息处理技术研究[D]. 解松霖.北京邮电大学 2017
[3]数字全息三维立体显示关键技术研究[D]. 郑华东.上海大学 2009
硕士论文
[1]计算全息三维显示系统中相关问题的研究和实现[D]. 邓征标.中国科学技术大学 2016
[2]计算全息用于三维立体显示的方法研究[D]. 辜苏.昆明理工大学 2016
[3]无透镜数字全息显微成像研究[D]. 陈云鹏.郑州大学 2015
[4]光线跟踪加速技术的研究与应用[D]. 秦亚军.合肥工业大学 2014
[5]真实感图形中光线跟踪算法及其加速技术的研究[D]. 张少帅.西安电子科技大学 2014
[6]三维物体计算全息图压缩及加速生成技术研究[D]. 任振波.清华大学 2013
[7]CUDA光线跟踪渲染器设计与实现[D]. 黄鑫.北京邮电大学 2012
[8]用于3D显示的计算全息研究[D]. 谢振威.哈尔滨工业大学 2011
[9]真实感光照技术的研究与实现[D]. 张丽.电子科技大学 2010
[10]基于GPU的光线跟踪算法研究与实现[D]. 兰青.湖南大学 2009
本文编号:3485536
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:67 页
【学位级别】:硕士
【部分图文】:
图1-1人眼观察到物体远近的信息:(a)双目视差?(b)视轴辐合??,二,
从本质上来说,人眼能感知三维世界是因为物体发出的光或者反射光的空间分布不同。正??常人的两只眼睛相距约65毫米左右[2],所以其实每只眼睛看到的空间物体侧面是不同的,??如图1-1?(a)所示,这就是视网膜上的双目视差成像,其可以为大脑提供物体所在位置的远??近信息[3]。如图1-1?(b)所示,在看近处或远处的物体时,双眼的视线分别会向正中会聚或??近似于平行,眼部肌肉控制视轴辐合时人就可以感知三维深度[4]。??维物体?远处^勿点??cdIcd?A??A?A??々丨《?;r:IM?G眼??图1-1人眼观察到物体远近的信息:(a)双目视差?(b)视轴辐合??如今,人们渐渐不再满足于观看二维平面的静态照片和动态视频,进而追求更有立体??感的视觉体验。三维立体显示有两种情况:一种是将空间中三维物体的信息以平面投影或??透视图像等形式展现出来,这种立体感知不是因为双目视差且物体不拥有其他侧面,而是??与人的主观印象有关系[5],如图1-2所示,可以利用前后遮挡、阴影明暗或透视关系等来??感知立体效果[6];另一种是在空间中客观地形成物体立体分布的影像,观看者可以通过移??动来看到物体的不同侧面,并感知到它在空间中的位置,这正是我们所努力追求的理想的??三维立体显示效果。????圓_!??(a)?(b)?(c)??
首先投影显示设备发射出调制好的叠加图像,然后助视眼镜再将左右视差图像分开。??根据调制原理和分光方式的不同,助视式眼镜可以大致分为色差原理[9]、偏振原理[1°]和时??序快门方式M,其原理分别如图1-3所示。??.?WW???醜6QHzW换??⑷?(b)?(C)??图1-3助视式眼镜:(a)色差原理(b)偏振原理(c)时序快门方式??色差眼镜主要利用了补色的原理,一般是红蓝眼镜或蓝绿黄眼镜。视差图像分别被不??同的颜色编码调制在一起,通过不同颜色的滤光片吸收这种颜色的光,左右眼就看到了不??同的视差图像。这种技术原理简单、调制容易、成本低,但人眼看到的色彩失真较严重,??导致立体感不强且长时间观看后影响人眼健康[9]。??2??
【参考文献】:
期刊论文
[1]增强现实技术综述[J]. 侯颖,许威威. 计算机测量与控制. 2017(02)
[2]基于全息光学元件的增强现实3D显示系统[J]. 余文涛,张汉乐,邓欢,王琼华,李大海. 中国激光. 2016(10)
[3]基于GPU加速的光线跟踪渲染算法研究[J]. 陈昱,江兰帆. 武夷学院学报. 2013(02)
[4]集成成像三维显示系统显示性能的研究进展[J]. 赵星,王芳,杨勇,方志良,袁小聪. 中国光学. 2012(03)
[5]数字全息三维显示关键技术与系统综述[J]. 马建设,夏飞鹏,苏萍,潘龙法. 光学精密工程. 2012(05)
[6]计算全息三维实时显示的研究进展[J]. 贾甲,王涌天,刘娟,李昕,谢敬辉. 激光与光电子学进展. 2012(05)
[7]云计算中的并行计算技术分析[J]. 郑文武,李先绪,黄执勤. 电信科学. 2011(12)
[8]Imitating micro-lens array for integral imaging[J]. 王琼华,邓欢,焦甜甜,李大海,王芳宁. Chinese Optics Letters. 2010(05)
[9]GPU通用计算研究[J]. 丁鹏,陈利学,龚捷,张岩. 计算机与现代化. 2010(01)
[10]数字化全息及其在三维显示和检测中的应用[J]. 王辉. 激光与光电子学进展. 2009(08)
博士论文
[1]基于密集视点的计算三维显示若干关键技术研究[D]. 陈铎.北京邮电大学 2017
[2]三维显示中的光场信息处理技术研究[D]. 解松霖.北京邮电大学 2017
[3]数字全息三维立体显示关键技术研究[D]. 郑华东.上海大学 2009
硕士论文
[1]计算全息三维显示系统中相关问题的研究和实现[D]. 邓征标.中国科学技术大学 2016
[2]计算全息用于三维立体显示的方法研究[D]. 辜苏.昆明理工大学 2016
[3]无透镜数字全息显微成像研究[D]. 陈云鹏.郑州大学 2015
[4]光线跟踪加速技术的研究与应用[D]. 秦亚军.合肥工业大学 2014
[5]真实感图形中光线跟踪算法及其加速技术的研究[D]. 张少帅.西安电子科技大学 2014
[6]三维物体计算全息图压缩及加速生成技术研究[D]. 任振波.清华大学 2013
[7]CUDA光线跟踪渲染器设计与实现[D]. 黄鑫.北京邮电大学 2012
[8]用于3D显示的计算全息研究[D]. 谢振威.哈尔滨工业大学 2011
[9]真实感光照技术的研究与实现[D]. 张丽.电子科技大学 2010
[10]基于GPU的光线跟踪算法研究与实现[D]. 兰青.湖南大学 2009
本文编号:3485536
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3485536.html
最近更新
教材专著