当前位置:主页 > 科技论文 > 自动化论文 >

基于对抗样本的一种隐写机制

发布时间:2021-06-17 18:12
  近年来,深度学习技术在许多方向上都取得了重大突破,而深度学习模型也被广泛地运用于各个研究领域和部署到人们的生活当中。尽管深度学习在许多复杂问题上取得了优秀的表现,越来越多的研究表明,深度学习模型存在许多安全上的隐患,从而容易受到恶意者的攻击,其中一个典型的攻击就是对抗样本。对抗样本通过攻击者有意添加扰动或噪声得来,能让机器学习和深度模型产生错误的输出。如果对抗样本上的扰动和噪声被约束得足够小,人眼或者系统将很难把对抗样本与正常样本区分出来。对抗样本可能对基于深度学习模型构建的系统产生严重的安全性威胁,尤其是在那些对于安全性要求较高的应用上。在这篇论文中,我们介绍了机器学习与深度学习中的一些基本概念,并总结了对抗样本近年来的研究成果。我们基于前人的文献综述和总结,对对抗样本的相关研究成果进行重新分类总结。在此之上,我们针对对抗样本,提出了一个通过对抗样本构建的正面应用:基于对抗样本的隐写机制。在这个机制中,我们将对抗样本自身的对抗性看作一种信息,该信息只被特定的模型能够解码。我们为隐写机制设计了四种可行的隐写方案,并通过实验展示了四个方案在不同约束下的表现。在论文的最后,我们对该隐写机制... 

【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校

【文章页数】:55 页

【学位级别】:硕士

【部分图文】:

基于对抗样本的一种隐写机制


对抗样本实例[1]

示意图,全连接,神经网络,示意图


哈尔滨工业大学工学硕士学位论文图2-1全连接神经网络结构示意图卷积神经网络在图像处理中尤其常用。相比于标准的前馈神经网络,卷积神经网络增加了卷积核及池化层等组件。这些组件通过共享参数,降采样等方式,大大降低了神经网络的参数量,使得大规模的基于图片的分类器模型的训练成为现实。图2-2展示了一个标准的卷积神经网络的结构。图2-2卷积神经网络结构示意图此外,神经网络还包含循环神经网络[9],递归神经网络[10],以及短期记忆网络[11]等诸多变种,因其未在本研究项目中使用,我们在此不再多做介绍。受益于近期来训练算法和硬件条件的发展,相比于之前只有数层的神经网络模型,深度学习中能够实现多达数十层乃至成百上千层的深度神经网络。通过层数的增加,深度神经网络的学习能力大大增强,能够做到主动对数据进行表征学习的效果,从而减少研究人员在特征选择上花的时间和精力,并取得更好的效果。与模型表现效果提升对应的是,网络层数的增加也带来了训练难度的提升。此外,深度神经网络比起传统的神经网络层数增多,参数量增大,也给攻击提供了更大的自由度,更容易受到对抗样本的攻击。-6-

示意图,神经网络,卷积,示意图


哈尔滨工业大学工学硕士学位论文图2-1全连接神经网络结构示意图卷积神经网络在图像处理中尤其常用。相比于标准的前馈神经网络,卷积神经网络增加了卷积核及池化层等组件。这些组件通过共享参数,降采样等方式,大大降低了神经网络的参数量,使得大规模的基于图片的分类器模型的训练成为现实。图2-2展示了一个标准的卷积神经网络的结构。图2-2卷积神经网络结构示意图此外,神经网络还包含循环神经网络[9],递归神经网络[10],以及短期记忆网络[11]等诸多变种,因其未在本研究项目中使用,我们在此不再多做介绍。受益于近期来训练算法和硬件条件的发展,相比于之前只有数层的神经网络模型,深度学习中能够实现多达数十层乃至成百上千层的深度神经网络。通过层数的增加,深度神经网络的学习能力大大增强,能够做到主动对数据进行表征学习的效果,从而减少研究人员在特征选择上花的时间和精力,并取得更好的效果。与模型表现效果提升对应的是,网络层数的增加也带来了训练难度的提升。此外,深度神经网络比起传统的神经网络层数增多,参数量增大,也给攻击提供了更大的自由度,更容易受到对抗样本的攻击。-6-


本文编号:3235676

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3235676.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户290fd***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com