基于深度神经网络的图像隐藏算法研究
发布时间:2021-12-23 13:24
随着计算机网络技术的广泛普及和快速发展,信息的传送、交流、共享大部分通过网络通信来实现,大量秘密信息通过网络进行传输,这给人们的生活工作带来方便的同时也带来了安全性风险。信息隐藏算法能够保证秘密信息在不被第三方察觉的情况下进行传输,提高了网络通信的安全性,因而受到国内外研究者的广泛关注。信息隐藏的载体有多种如文本、音频、视频、图像等,本文选用图像作为信息隐藏算法的载体即图像信息隐藏。传统的图像信息隐藏算法所生成的载密图像、恢复的秘密图像与原始的载体图像、秘密图像差距较大,且不能根据隐写分析算法进行调整,因而存在有许多局限性。本文针对这些问题对基于深度神经网络的图像信息隐藏进行了研究,主要工作和研究成果包括:(1)提出了一种基于残差网络的图像隐藏算法。该算法参考了前人基于自动编码器的图像信息隐藏算法,设计了新的基于残差网络的模型结构,将载体图像通过shortcut(快速通道)跳过特征提取层发送到载密图像之中,使载密图像在生成的过程中有载体图像作为蓝本,提高了算法的透明性。由仿真实验分析可知,算法在生成高质量的载密图像同时,能抵抗住经典的隐写分析工具的攻击,满足优秀的图像信息隐藏算法的要求...
【文章来源】:南昌大学江西省 211工程院校
【文章页数】:61 页
【学位级别】:硕士
【部分图文】:
图2.?1模型深度对算法在训练集和测试集上准确率的影响??
^(1111丨1:滅231;丨1;011)和批量归一化(1331(:11]\1〇0111^^011)[271解决/_,使得训??练深层网络变得可能。但是当网络的深度加深时,却带来了另外的问题,就是网??络性能的退化问题,网络的深度加深了,错误率却上升了。下图[31]是模型深度对??于算法在训练集和测试集上准确率的影响:??lv?E--?20-laycr??c?、’■?一、56*lajer?2??-?2()-laycr???!cr.?(Ic4)?iter.?(Ic4)??图2.?1模型深度对算法在训练集和测试集上准确率的影响??为解决上面所提出来得神经网络得深度增加了,神经网络的性能却降低了的问题。??ResNet[31]的作者提出了一种“短路”(short?connections)的模型来帮助神经网络的??拟合。残差网络最初的设想是深层网络的表达能力不应该比浅层网络的表达能力??差,因为对于深层网络来说,它只需要将比浅层网络所多出来的那些层全部用来??做恒等映射就行了。从完成恒等映射这一功能来说,可以将网络设计成为??//(x)?=?F(;c)?+?x的结构,这样既完成了学习的功能,又实现了恒等映射。F(x)?+?x??闲数可以迪过具行short?connection的神经网络来卜实现如F图:??X-.^N??weight?layer?\??F{x)?jrelu?"?x??—hjlaYer?1?J?identity??J(x)?+?x??图2.?2残差网络基础模块??2.3.4稠密网络??随着网络结构越来越深,神经网络逐渐出现梯度消失等W题,为了解决这拽??13??
征值能够被更好的利用,从而让网络更浅。??稠密网络有以下几个优点:??1.缓解了梯度消失的问题。??2.加强了特征的传播。??3.鼓励了特征的重用。??4.减少了参数的数量。??稠密网络的模型结构如下图所示:??Input?????????T"?n?门门?门门?n?门?Prediction??g?Dense?Block?1?p???Dense?Block?2?〇?Dense?Block?3?^????"I"?*!*■!"?H..'加说―??图2.?3稠密网络模型结构??DenseBlock为DenseNet最核心的部分,其采用了一种被称为稠密连接的模??式,使每一层都能够直接连接到它接下来的所有层,因此第/层也就接收到它前??面/-I层的所有特征向量。其思想可以由下式所表示:??(2.5)??其中[1。,;^,...,;^]代指0到/-I层的所有特征向量。{也就是第/层的输出。??//;指代为三个连续的操作:批量归一化、ReLU激活函数、以及一个3x3大小的??卷积。由于特征向量的大小不同时公式中使用的串联操作是不可行的。所以在??DenseBlock中不会使用池化操作,而是在三个DenseBlock之中添加transition??layers来实现池化操作,同时在transition?layers中还包含有lx丨的卷积来实现特??征向量的降维。??在一般的L层卷积网络中,一共有L个连接,但是DenseNet通过稠密连接??的方式使得连接达到了^^个连接。将每一层中的特征向量进行了高效的重??用,从而产生了易于训练并且参数高度有效的网络模型。??14??
【参考文献】:
硕士论文
[1]基于深度学习的图像隐写分析算法研究[D]. 张震.北京交通大学 2019
[2]基于深度学习的图像信息隐藏方法研究[D]. 任科.大连理工大学 2019
[3]基于生成对抗网络的图像信息隐藏研究[D]. 董士琪.北京邮电大学 2019
本文编号:3548560
【文章来源】:南昌大学江西省 211工程院校
【文章页数】:61 页
【学位级别】:硕士
【部分图文】:
图2.?1模型深度对算法在训练集和测试集上准确率的影响??
^(1111丨1:滅231;丨1;011)和批量归一化(1331(:11]\1〇0111^^011)[271解决/_,使得训??练深层网络变得可能。但是当网络的深度加深时,却带来了另外的问题,就是网??络性能的退化问题,网络的深度加深了,错误率却上升了。下图[31]是模型深度对??于算法在训练集和测试集上准确率的影响:??lv?E--?20-laycr??c?、’■?一、56*lajer?2??-?2()-laycr???!cr.?(Ic4)?iter.?(Ic4)??图2.?1模型深度对算法在训练集和测试集上准确率的影响??为解决上面所提出来得神经网络得深度增加了,神经网络的性能却降低了的问题。??ResNet[31]的作者提出了一种“短路”(short?connections)的模型来帮助神经网络的??拟合。残差网络最初的设想是深层网络的表达能力不应该比浅层网络的表达能力??差,因为对于深层网络来说,它只需要将比浅层网络所多出来的那些层全部用来??做恒等映射就行了。从完成恒等映射这一功能来说,可以将网络设计成为??//(x)?=?F(;c)?+?x的结构,这样既完成了学习的功能,又实现了恒等映射。F(x)?+?x??闲数可以迪过具行short?connection的神经网络来卜实现如F图:??X-.^N??weight?layer?\??F{x)?jrelu?"?x??—hjlaYer?1?J?identity??J(x)?+?x??图2.?2残差网络基础模块??2.3.4稠密网络??随着网络结构越来越深,神经网络逐渐出现梯度消失等W题,为了解决这拽??13??
征值能够被更好的利用,从而让网络更浅。??稠密网络有以下几个优点:??1.缓解了梯度消失的问题。??2.加强了特征的传播。??3.鼓励了特征的重用。??4.减少了参数的数量。??稠密网络的模型结构如下图所示:??Input?????????T"?n?门门?门门?n?门?Prediction??g?Dense?Block?1?p???Dense?Block?2?〇?Dense?Block?3?^????"I"?*!*■!"?H..'加说―??图2.?3稠密网络模型结构??DenseBlock为DenseNet最核心的部分,其采用了一种被称为稠密连接的模??式,使每一层都能够直接连接到它接下来的所有层,因此第/层也就接收到它前??面/-I层的所有特征向量。其思想可以由下式所表示:??(2.5)??其中[1。,;^,...,;^]代指0到/-I层的所有特征向量。{也就是第/层的输出。??//;指代为三个连续的操作:批量归一化、ReLU激活函数、以及一个3x3大小的??卷积。由于特征向量的大小不同时公式中使用的串联操作是不可行的。所以在??DenseBlock中不会使用池化操作,而是在三个DenseBlock之中添加transition??layers来实现池化操作,同时在transition?layers中还包含有lx丨的卷积来实现特??征向量的降维。??在一般的L层卷积网络中,一共有L个连接,但是DenseNet通过稠密连接??的方式使得连接达到了^^个连接。将每一层中的特征向量进行了高效的重??用,从而产生了易于训练并且参数高度有效的网络模型。??14??
【参考文献】:
硕士论文
[1]基于深度学习的图像隐写分析算法研究[D]. 张震.北京交通大学 2019
[2]基于深度学习的图像信息隐藏方法研究[D]. 任科.大连理工大学 2019
[3]基于生成对抗网络的图像信息隐藏研究[D]. 董士琪.北京邮电大学 2019
本文编号:3548560
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3548560.html