基于特征增强的超分辨率图像重建算法研究
发布时间:2021-01-20 01:55
在视频监控、医学影像、遥感卫星等特殊的应用场景,受到硬件限制、噪声干扰等因素的影响,只能获得低分辨率(Low Resolution,LR)图像。超分辨率(Super Resolution,SR)重建技术通过算法恢复低分辨率图像所丢失的细节信息,弥补硬件的不足。近几年,基于卷积神经网络(Convolutional Neural Network,CNN)的超分辨率重建算法成为研究的热点,使用大量的数据样本,并利用卷积神经网络对低分辨率图像和高分辨率(High Resolution,HR)图像之间的关系进行建模,超分辨率重建的性能得到了极大的提升。目前基于卷积神经网络的超分辨率算法仍然面临许多严峻的挑战,比如细节重建效果差、参数和计算量大、训练难度高,难以应用于实时场景。为了能充分利用低分辨率图像的特征信息,本文从特征增强的角度进行了研究,从而提高超分辨率重建性能。本文对计算量较小和重建性能优异的IDN(Information Distillation Network)网络进行改进,提出了RD-IDN(Residual Dense Information Distillation Netwo...
【文章来源】:重庆邮电大学重庆市
【文章页数】:66 页
【学位级别】:硕士
【部分图文】:
倍尺度为了从视觉感知上进行算法的对比
重庆邮电大学硕士学位论文第3章基于特征增强的超分辨率网络33如表3.2所示,为放大尺度为4倍时各算法的PSNR和SSIM值对比情况。对于PSNR来说,本章的方法在四个数据集上都达到了最高值,分别比IDN高了0.1、0.1、0.01、0.22。对于SSIM来说,本章的方法在Set14、BSDS100、Urban100三个数据集上取得了最高值。综合SSIM和PSNR来看,本章的方法比大多数方法更好。表3.24倍尺度放大PSNR(dB)和SSIM对比算法Set5Set14BSDS100Urban100PSNR/SSIMPSNR/SSIMPSNR/SSIMPSNR/SSIMBicubic28.42/0.81026.10/0.70425.96/0.66923.15/0.659SRCNN30.49/0.86227.61/0.75426.91/0.71224.53/0.724VDSR31.35/0.88228.03/0.77027.29/0.72625.18/0.753DRCN31.53/0.88428.04/0.77027.24/0.72425.14/0.764LapSRN31.54/0.88528.19/0.77227.32/0.72825.21/0.756DRRN31.68/0.88828.21/0.77227.38/0.72825.44/0.764MemNet31.74/0.88928.26/0.77227.40/0.72825.50/0.763IDN31.82/0.89328.25/0.77327.41/0.72925.41/0.763RD-IDN31.92/0.89028.35/0.77627.42/0.73125.63/0.7723.4.2主观对比(a)原图(b)Bicubic(c)SRCNN(d)VDSR(e)LapSRN(f)IDN(g)RD-IDN图3.94倍尺度放大的效果对比图为了从视觉感知上进行算法的对比,本章从Urban100测试数据集中选取了“img072.jpg”这张非常具有代表性的图片进行重建效果的可视化。如图3.9(a)的红框所示,在原图中选取了一小块具有非常多细节的子图像作为对比图像,先将对
重庆邮电大学硕士学位论文第3章基于特征增强的超分辨率网络34比图像进行双三次插值退化缩小4倍尺度,再通过不同的超分辨率重建算法进行重建。如图3.9(b)所示,是通过双三次插值方法(Bicubic)进行重建后的图像,可以看出图像的细节已经模糊,重建效果很差。如图3.9(g)所示,本章提出的方法重建之后的图像跟其他方法比起来颜色更为饱满,边缘和细节更为突出,平滑度更小,图像的结构信息更接近于原图。3.4.3训练难度对比训练难度对比的目的主要是针对IDN网络和本章改进过后的RD-IDN网络,体现改进之后训练难度的降低程度。本章在根据文献[44]的方法复现IDN时,发现IDN难于训练,文献[44]的作者使用了多种训练技巧(tricks),如采用不同大小的子图像训练样本,采用多阶段微调以及不同的损失函数等方式进行训练,才达到了文献[44]所给出的效果。本章的方法大大降低了训练难度,为了和IDN网络进行公平的对比,本章采用相同的训练方法,没有采用任何训练技巧,在相同的数据集DIV2K上对IDN网络和RD-IDN网络进行训练,同时评估在Set5数据集上的性能,并记录相关数据。(a)PSNR对比(b)SSIM对比图3.10训练时的收敛和性能情况如图3.10所示为本章提出的RD-IDN网络和IDN网络在训练时的PSNR和SSIM变化曲线图。由于IDN是在双三次插值后的放大图像的基础上学习全局残差图像,所以在开始的时候IDN的PSNR值和SSIM值是高于本章方法的,但在大约5510次迭代(iters)之后,本章的方法在PSNR值和SSIM值上高于IDN方法,并且随着迭代次数越多,PSNR和SSIM差值越大。在整个训练过程中,IDN方法
本文编号:2988128
【文章来源】:重庆邮电大学重庆市
【文章页数】:66 页
【学位级别】:硕士
【部分图文】:
倍尺度为了从视觉感知上进行算法的对比
重庆邮电大学硕士学位论文第3章基于特征增强的超分辨率网络33如表3.2所示,为放大尺度为4倍时各算法的PSNR和SSIM值对比情况。对于PSNR来说,本章的方法在四个数据集上都达到了最高值,分别比IDN高了0.1、0.1、0.01、0.22。对于SSIM来说,本章的方法在Set14、BSDS100、Urban100三个数据集上取得了最高值。综合SSIM和PSNR来看,本章的方法比大多数方法更好。表3.24倍尺度放大PSNR(dB)和SSIM对比算法Set5Set14BSDS100Urban100PSNR/SSIMPSNR/SSIMPSNR/SSIMPSNR/SSIMBicubic28.42/0.81026.10/0.70425.96/0.66923.15/0.659SRCNN30.49/0.86227.61/0.75426.91/0.71224.53/0.724VDSR31.35/0.88228.03/0.77027.29/0.72625.18/0.753DRCN31.53/0.88428.04/0.77027.24/0.72425.14/0.764LapSRN31.54/0.88528.19/0.77227.32/0.72825.21/0.756DRRN31.68/0.88828.21/0.77227.38/0.72825.44/0.764MemNet31.74/0.88928.26/0.77227.40/0.72825.50/0.763IDN31.82/0.89328.25/0.77327.41/0.72925.41/0.763RD-IDN31.92/0.89028.35/0.77627.42/0.73125.63/0.7723.4.2主观对比(a)原图(b)Bicubic(c)SRCNN(d)VDSR(e)LapSRN(f)IDN(g)RD-IDN图3.94倍尺度放大的效果对比图为了从视觉感知上进行算法的对比,本章从Urban100测试数据集中选取了“img072.jpg”这张非常具有代表性的图片进行重建效果的可视化。如图3.9(a)的红框所示,在原图中选取了一小块具有非常多细节的子图像作为对比图像,先将对
重庆邮电大学硕士学位论文第3章基于特征增强的超分辨率网络34比图像进行双三次插值退化缩小4倍尺度,再通过不同的超分辨率重建算法进行重建。如图3.9(b)所示,是通过双三次插值方法(Bicubic)进行重建后的图像,可以看出图像的细节已经模糊,重建效果很差。如图3.9(g)所示,本章提出的方法重建之后的图像跟其他方法比起来颜色更为饱满,边缘和细节更为突出,平滑度更小,图像的结构信息更接近于原图。3.4.3训练难度对比训练难度对比的目的主要是针对IDN网络和本章改进过后的RD-IDN网络,体现改进之后训练难度的降低程度。本章在根据文献[44]的方法复现IDN时,发现IDN难于训练,文献[44]的作者使用了多种训练技巧(tricks),如采用不同大小的子图像训练样本,采用多阶段微调以及不同的损失函数等方式进行训练,才达到了文献[44]所给出的效果。本章的方法大大降低了训练难度,为了和IDN网络进行公平的对比,本章采用相同的训练方法,没有采用任何训练技巧,在相同的数据集DIV2K上对IDN网络和RD-IDN网络进行训练,同时评估在Set5数据集上的性能,并记录相关数据。(a)PSNR对比(b)SSIM对比图3.10训练时的收敛和性能情况如图3.10所示为本章提出的RD-IDN网络和IDN网络在训练时的PSNR和SSIM变化曲线图。由于IDN是在双三次插值后的放大图像的基础上学习全局残差图像,所以在开始的时候IDN的PSNR值和SSIM值是高于本章方法的,但在大约5510次迭代(iters)之后,本章的方法在PSNR值和SSIM值上高于IDN方法,并且随着迭代次数越多,PSNR和SSIM差值越大。在整个训练过程中,IDN方法
本文编号:2988128
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/2988128.html
最近更新
教材专著