基于低秩矩阵补全的光场空间重建
本文选题:真实感绘制 + 稀疏性 ; 参考:《浙江大学》2016年硕士论文
【摘要】:蒙特卡罗路径追踪(path tracing)是目前最重要的真实感绘制方法,是照片级真实感绘制的基础,然而这种方法面临着收敛速度慢的问题,在采样不足时图像会出现明显噪点,如何减少采样加快收敛是一个很重要的研究问题。“光场具有局部稀疏性”是绘制中早已存在的共识,这是因为场景空间相邻点接收的光辐射度也倾向相似。压缩感知相关知识表明,以极少采样量恢复原始稀疏信号是可能的。如果将场景空间临近的着色点排列成行,上半球面域入射光采样方向细分铺开成列,组成一个光传输矩阵,则该矩阵是低秩的,可以利用压缩感知中广泛应用的低秩矩阵补全方法稀疏采样重建出光场。我们关心的是,这种方法补全一个矩阵最低需要多少采样数?这方面已有成熟的研究成果,其中与矩阵的元素分布结构有较大关系,数学上用Coherence这一变量来表示。基于此,本文首先研究了传输光场的矩阵Coherence相关性质,推导论证出一些定性和定量的数学结论;然后以此为指导,设计出一种似K-means聚类算法,用于将场景空间分割成局部光场具有较好稀疏性和低列空间Coherence的局部块(local patch),并通过实验证实该聚类算法优于传统的K-means算法;最后本文引入一种基于自适应采样的低秩矩阵补全算法对聚类后的局部光场进行重建,该算法运行速度快,补全需要的采样数比其他算法低,且非常适用于本文的绘制问题,本文也通过若干实验结果证实了这些优越性;另外,本文在不改变原算法逻辑的前提下,还对该算法作了进一步的优化,矩阵补全结果未受影响,但是运行速度却显著地提升了 2~4倍。重建出来的光场可以作为重要度函数,用于后续蒙特卡罗光线追踪的重采样过程。如果重建光场与真实光场足够接近,也可以被直接用于最终图像的绘制。
[Abstract]:Monte Carlo path tracing (path tracing) is the most important method of realistic rendering at present, which is the basis of photo-level realistic rendering. However, this method is faced with the problem of slow convergence. "the local sparsity of light field" is a consensus in rendering, which is because the intensity of light radiance received by adjacent points in scene space also tends to be similar. The knowledge of compressed sensing shows that it is possible to recover the original sparse signal with a small sample amount. If the coloring points near the scene space are arranged in rows and the sampling direction of the incident light in the upper hemispherical domain is subdivided into columns to form an optical transmission matrix, the matrix is of low rank. The low rank matrix complement method widely used in compressed sensing can be used to reconstruct the light field by sparse sampling. Our concern is, what is the minimum number of samples needed by this method to complement a matrix? There have been mature research results in this field, in which there is a great relationship with the element distribution structure of the matrix, which is expressed mathematically by coherence as a variable. Based on this, this paper first studies the matrix coherence correlation properties of the transmission light field, deduces some qualitative and quantitative mathematical conclusions, and then designs a K-means like clustering algorithm under the guidance of this method. The local block (local patch), is used to divide the scene space into local light fields with good sparsity and coherence in low column space. The experimental results show that the clustering algorithm is superior to the traditional K-means algorithm. Finally, this paper introduces a low rank matrix complement algorithm based on adaptive sampling to reconstruct the local light field after clustering. The algorithm runs faster and needs less samples than other algorithms, and it is very suitable for the rendering problem in this paper. In addition, without changing the logic of the original algorithm, the algorithm is further optimized, and the results of matrix complement are not affected. However, the speed of the operation was significantly increased by 2 times. The reconstructed light field can be used as an importance function for the subsequent Monte Carlo ray tracing resampling process.
【学位授予单位】:浙江大学
【学位级别】:硕士
【学位授予年份】:2016
【分类号】:TP391.41
【相似文献】
相关博士学位论文 前8条
1 苏忱;高分辨率可交互扫描光场显示关键技术研究[D];浙江大学;2017年
2 朱智涵;轨道角动量光场时空特性与光声耦合[D];哈尔滨理工大学;2017年
3 解松霖;三维显示中的光场信息处理技术研究[D];北京邮电大学;2017年
4 吴量;三组份偏振纠缠光场的制备及三原子系综之间量子纠缠的实现[D];山西大学;2017年
5 周瑶瑶;高纠缠度纠缠态光场的制备及其在量子秘密共享中的应用[D];山西大学;2017年
6 贺敬文;太赫兹光场调制超表面器件的设计与表征[D];哈尔滨工业大学;2017年
7 赵青青;生物光信息处理技术研究[D];中国科学院大学(中国科学院上海技术物理研究所);2017年
8 霍宇驰;基于光传递矩阵表示与重构的高效真实感绘制技术[D];浙江大学;2017年
相关硕士学位论文 前10条
1 吴国宏;基于低秩矩阵补全的光场空间重建[D];浙江大学;2016年
2 王林;光场反射式直线时栅光场分布仿真和结构设计[D];重庆理工大学;2017年
3 牛原野;压缩感知光场重建及深度估计的研究[D];郑州大学;2017年
4 张晓帅;光场的稀疏编码模型及重构算法的研究[D];浙江工业大学;2017年
5 蒋孝鑫;基于光学天线的矢量光场的聚焦与调控[D];南京航空航天大学;2017年
6 邓瑞婕;795nm压缩热态光场量子存储的相关问题研究[D];山西大学;2017年
7 许现波;光场式直线时栅高精度动态测量方法研究[D];重庆理工大学;2017年
8 孟侨;基于压缩光场的虚拟视点生成研究[D];北京邮电大学;2017年
9 余临倩;基于改进K-SVD字典的压缩光场重构与图像去噪研究[D];浙江工业大学;2017年
10 牛朦朦;基于光场相机的深度图像生成技术研究[D];沈阳理工大学;2017年
,本文编号:2077438
本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/2077438.html