当前位置:主页 > 科技论文 > 电子信息论文 >

二次加权引导滤波融合双色彩空间模型的立体匹配

发布时间:2021-11-12 00:51
  立体匹配一直以来都是双目视觉领域中研究的重点和难点。针对现有立体匹配算法边缘保持性差、匹配精度低等问题,提出了一种二次加权引导滤波融合双色彩空间模型的立体匹配算法(Secondary Weighted Guided Filtering fusion double color model,SWGF)。首先在代价计算阶段提出了一种双色彩空间模型,从两个颜色空间进行像素颜色匹配代价计算,增强像素在低纹理区域的特征;然后在代价聚合阶段基于HSV颜色空间利用不同窗口中像素纹理不同加入一个边缘保持项,从而使正则化参数进行自适应调整。在一次引导滤波之后,我们使用Census变换得到的汉明距离和初始视差完成一次代价更新,再次对其进行代价聚合,随后计算视差并对视差进行左右一致性检测、空洞填充和加权中值滤波等优化,最后获得视差图。本文算法在Middlebury测试平台上测试结果表明SWGF算法误匹配率仅为4.61%,可以大幅提升立体匹配的精度,同时增强其边缘保持性。 

【文章来源】:光电子·激光. 2020,31(08)北大核心CSCD

【文章页数】:8 页

【部分图文】:

二次加权引导滤波融合双色彩空间模型的立体匹配


算法流程

测试图,图像,视差,测试图


本文基于python语言,将网站提供的标准测试图像,如图2,在 Middlebury[17]测试平台上进行测试。四幅图像的视差搜索范围和图像大小如表1所示。本文中的参数是根据大量实验所取得的最优值,参数设置如表2,算法在对四幅图像测试的过程中除了视差范围不同,其他参数均不变。表1 测试图像及图像参数Tab.1 Test images and image parameters Parameters Tsukuba Venus Teddy Cones Image size 384×288 434×383 450×375 450×375 range 0~15 0~20;0~60 0~60

视差,代价函数,图像,梯度


对图2的标准图像teddy进行对比试验,分别采用AD,梯度,AD+梯度和本文双色彩空间模型做对比,实验中仅代价计算方法不同,实验结果如图(3),实验数据表明,本文提出的代价计算方法误匹配率为9.20%,相较于对比试验采用AD代价函数13.71%的误匹配率,采用梯度代价函数10.41%的误匹配率,和采用AD+梯度代价函数9.63%的误匹配率,本文双色彩空间模型误匹配率有所降低。4.2 SWGF算法的有效性

【参考文献】:
期刊论文
[1]融合梯度特性与置信度的立体匹配算法[J]. 范海瑞,杨帆,潘旭冉,李靖,潘国峰.  光电子·激光. 2019(09)
[2]基于图像分割的稠密立体匹配算法[J]. 马瑞浩,朱枫,吴清潇,鲁荣荣,魏景阳.  光学学报. 2019(03)
[3]基于改进代价计算和自适应引导滤波的立体匹配[J]. 闫利,王芮,刘华,陈长军.  光学学报. 2018(11)
[4]基于稳定树的立体匹配视差优化算法[J]. 季雨航,马利庄.  计算机辅助设计与图形学学报. 2016(12)
[5]基于改进梯度和自适应窗口的立体匹配算法[J]. 祝世平,李政.  光学学报. 2015(01)



本文编号:3489874

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/dianzigongchenglunwen/3489874.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户c0c78***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com