基于卷积神经网络的图像去噪和超分辨率重建应用
发布时间:2022-01-06 08:43
增强图像质量一直是图像处理领域研究的热点问题,比如去除图像中的噪声、对图像中某些部分进行增强或者抑制、或者改变图像的亮度等,从而提高图像的质量。随着深度学习方法在图像处理中的广泛应用,卷积神经网络为图像恢复和重建提供了新的研究思路,流行的卷积神经网络与传统图像处理应用算法的结合给研究带来了更多的创新和应用研究方向。本文主要围绕基于卷积神经网络的图像去噪和超分辨率重建任务进行展开,研究包括:(1)提出了基于残差单元和小波变换的图像去噪对称模型。该模型是基于残差学习算法和多级小波变换设计的对称结构模型,结合了卷积神经网络强大的表征能力和小波分解算法的优点,在自定义残差单元使用预激活层和优化了深层网络的复杂冗余结构,防止了模型的梯度消失问题和避免使用下采样导致图像特征细节丢失。此外,该方法采用两个大小不同训练样本进行网络训练,证明了该网络使用较大训练数据样本可以有效地提升模型性能。该方法在一定程度上提升了网络模型在高斯噪声环境下的去噪性能,获得更高的图像恢复质量评估值和更好的视觉效果。(2)提出了融合不同颜色空间的深度学习彩色图像超分辨率重建模型。基于不同色彩空间的一幅图像从图像处理角度而言...
【文章来源】:南昌大学江西省 211工程院校
【文章页数】:62 页
【学位级别】:硕士
【部分图文】:
图2.2卷积运算示意图??2一
?第2章图像恢复研究基础???表2.1?BN网络层的前向传导算法??输入:x?在?mini-batch?上的值:0;??m:样本集合数量;£是趋近于0的数;要学习的参数:y,p。??—输出???{%=厦?⑷}?—??丄?S?x,?//mini-batch?平均值值??m?i=x??cr^?-/up、?//mini-batch?方差??h?X「^?//归一化??yjcTfi?+£??y,?<—?yxt+ft三BNip^Xi^?//缩放和平移参数向量??输入Mxl^?输出Msl^l???*?????归-化?変播重构y激gg输入??图2.3?BN网络层的前向传导过程图??(3)激活函数层??在卷积神经网络中,由于卷积层和池化层具备较强线性表征能力,难以应??对大多数遇到的非线性问题。因此需要在卷积层后加上激活函数来拟合非线性??的函数,使CNN具有非线性表达能力。在研究应用中常用的激活函数有Sigmoid??函数和修正线性单元(Rectified?Linear?Unit,?ReLU),可以加快模型的训练速度,??函数表达式如公式2.3和公式2.4所示。??■SVgwoW函数表达式为:??Sigmoid?{x)?=「匕?(2.3)??1?+?e??修正线性单元(i?eLL〇表达式为:??ReLU{x)?=?max(0,?jc)?(2.4)??11??
?第2章图像恢复研宄基础???(4)池化层??池化层也称为欠采样或下采样,主要起到特征降维的作用,在图像领域用??于减小特征空间的维度,根据图像的局部相关性保留关键的图像特征,同时缩??减网络模型中的参数量达到降低计算成本的目的。如图2.4,常用的池化操作有??最大池化(Max?Pooling)和平均池化(Average?Pooling),即使用最大池化时,输出??为区域的最大数值,而使用平均池化时,输出结果为输入区域的平均值。??Max?Pooling??????20?30??12?20?30?〇?!??112?37??8?12?2?0????34?70?37?4?^?????Average?Pooling??112?100?25?12????????13?8??79?20??图2.4池化操作示意图??(5)损失函数??损失函数是用来估量模型中预测值与真实值之间存在的误差,即存在损失??函数越小,模型的鲁棒性就越好。为了使网络预测值和真实值数据之间尽可能??接近,在模型训练过程中需要对损失函数进行优化,以便获得的输出预测值越??逼近真实值。常用的损失函数有均方误差(Mean?Squared?Error,?MSE)和交叉摘损??失函数,其函数定义如公式2.5和公式2.6。??均方误差损失函数:??5?=?(2.5)??丄X??其中,S表示损失函数,X是样本,凡为网络期望值,1网络的输出预测值。??交叉熵损失函数:??5?=?^:[〇?ln《?+?(l?—/?)ln(l-9))?(2.6)??其中,S表示损失函数,TV表示样本数量,X是样本,p为网络期望
本文编号:3572139
【文章来源】:南昌大学江西省 211工程院校
【文章页数】:62 页
【学位级别】:硕士
【部分图文】:
图2.2卷积运算示意图??2一
?第2章图像恢复研究基础???表2.1?BN网络层的前向传导算法??输入:x?在?mini-batch?上的值:0;??m:样本集合数量;£是趋近于0的数;要学习的参数:y,p。??—输出???{%=厦?⑷}?—??丄?S?x,?//mini-batch?平均值值??m?i=x??cr^?-/up、?//mini-batch?方差??h?X「^?//归一化??yjcTfi?+£??y,?<—?yxt+ft三BNip^Xi^?//缩放和平移参数向量??输入Mxl^?输出Msl^l???*?????归-化?変播重构y激gg输入??图2.3?BN网络层的前向传导过程图??(3)激活函数层??在卷积神经网络中,由于卷积层和池化层具备较强线性表征能力,难以应??对大多数遇到的非线性问题。因此需要在卷积层后加上激活函数来拟合非线性??的函数,使CNN具有非线性表达能力。在研究应用中常用的激活函数有Sigmoid??函数和修正线性单元(Rectified?Linear?Unit,?ReLU),可以加快模型的训练速度,??函数表达式如公式2.3和公式2.4所示。??■SVgwoW函数表达式为:??Sigmoid?{x)?=「匕?(2.3)??1?+?e??修正线性单元(i?eLL〇表达式为:??ReLU{x)?=?max(0,?jc)?(2.4)??11??
?第2章图像恢复研宄基础???(4)池化层??池化层也称为欠采样或下采样,主要起到特征降维的作用,在图像领域用??于减小特征空间的维度,根据图像的局部相关性保留关键的图像特征,同时缩??减网络模型中的参数量达到降低计算成本的目的。如图2.4,常用的池化操作有??最大池化(Max?Pooling)和平均池化(Average?Pooling),即使用最大池化时,输出??为区域的最大数值,而使用平均池化时,输出结果为输入区域的平均值。??Max?Pooling??????20?30??12?20?30?〇?!??112?37??8?12?2?0????34?70?37?4?^?????Average?Pooling??112?100?25?12????????13?8??79?20??图2.4池化操作示意图??(5)损失函数??损失函数是用来估量模型中预测值与真实值之间存在的误差,即存在损失??函数越小,模型的鲁棒性就越好。为了使网络预测值和真实值数据之间尽可能??接近,在模型训练过程中需要对损失函数进行优化,以便获得的输出预测值越??逼近真实值。常用的损失函数有均方误差(Mean?Squared?Error,?MSE)和交叉摘损??失函数,其函数定义如公式2.5和公式2.6。??均方误差损失函数:??5?=?(2.5)??丄X??其中,S表示损失函数,X是样本,凡为网络期望值,1网络的输出预测值。??交叉熵损失函数:??5?=?^:[〇?ln《?+?(l?—/?)ln(l-9))?(2.6)??其中,S表示损失函数,TV表示样本数量,X是样本,p为网络期望
本文编号:3572139
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3572139.html