基于深度学习的网络协议漏洞挖掘方法研究
发布时间:2021-08-30 23:56
随着互联网时代的发展,网络安全问题的重要性与日剧增,而网络协议作为互联网中的基础设施,其安全性尤为重要。漏洞挖掘技术能够提前发现潜在安全漏洞。主动挖掘漏洞,防范于未然,是维持网络安全重要手段。在针对网络协议的漏洞挖掘方法中,模糊测试是如今最常用也最有效的方法。而模糊测试中测试用例的有效性是发现协议或系统未知漏洞的关键。为了提供有效的测试用例,研究者通常会学习并且分析某待测网络协议的格式规范,然后基于网络协议规范的先验知识生成测试用例,对具体的网络协议实现进行模糊测试。然而对各种不同协议的人工分析需要耗费一定的人力和时间,这也在一定程度上降低了网络协议漏洞挖掘的效率。因此,本文设计了一种基于模糊测试的网络协议漏洞挖掘方法。该方法适用于各种网络协议源码的模糊测试,并通过深度学习方法省略了传统网络协议漏洞挖掘过程中的人工对网络协议的分析。本文工作主要包含以下内容:(1)针对测试用例的有效性问题,提出了一种基于深度学习的用例优选模型与方法,该方法利用深度学习机制替代了对协议先验知识获取的过程,并且使用通用性的建模方式,从而适用于多种网络协议测试用例的生成。(2)针对网络协议的模糊测试问题,改进...
【文章来源】:电子科技大学四川省 211工程院校 985工程院校 教育部直属院校
【文章页数】:99 页
【学位级别】:硕士
【部分图文】:
AFL模糊测试方案
第二章漏洞挖掘与深度学习理论综述列预测等。如图2-2所示,其基本结构为包含多个节点的输入层,输出层,以及具有多个层次,多个节点的使用多种方式连接的隐藏层。简单来说,就是多层神经元的组合网络结构,其中每一层神经元包含多个节点,层与层之间的节点互相连接。图2-2神经网络基本结构BP神经网络主要可以分为两个过程,第一个是信号的前向传播,信号从输入层进入,经过隐藏层,最后传播到输出层,第二个是误差的反向传播,即从输出层方向传播到隐藏层,最后到输入层。在误差反向传播的过程中,BP算法依次调节各个神经元的权重和阈值,最终完成模型的训练。2.3.2卷积神经网络卷积神经网络(ConcurrentNerualNetwork,CNN)是一种带有卷积结构的深度神经网络,最早是为了进行图像预处理而设计出的一种模型。CNN网络一般包括:(1)输入层,通常是输入的图片等数据。(2)卷积层,包含用于卷积计算的过滤器。当给定一张新图时,CNN并不能准确地知道这些特征到底要匹配原图的哪些部分,所以它会在原图中把每一个可能的位置都进行尝试,相当于把这个特征变成了一个过滤器。(3)池化层,用于缩减矩阵,减少参数数量。对于图片来说,池化就是将输入图像进行缩小,减少像素信息,只保留重要信息。(4)全连接层,即全连接的神经网络,在整个卷积神经网络中起到分类器的作用,即通过卷积,池化等过程后,再经过全连接层对结果进行识别分类。(5)输出层,用于分类输出。卷积神经网络本质上是一种从输入到输出的映射,它能够学习大量的输入与15
墓亓?浴T谄胀ǖ纳窬??缰校?阌氩阒?涞慕诘闶腔ハ嗔?拥模?欢??一网络层的节点之间却是互不关联的。因此,它不能够很好的表达在同一层的节点的关联性,即序列数据的前后关联性。循环神经网络是具有时间联结的前馈神经网络,它们有了状态,通道与通道之间有了时间上的联系。神经元的输入信息,不仅包括前一神经细胞层的输出,还包括它自身在先前通道的状态,如图2-3所示,左侧图形就是RNN模型的基本结构,而右侧就是它在时间上进行展开的示意图。xt是时刻t的输入,相应的ht,ot分别是对应时刻t的隐藏层和输出层。图2-3RNN模型基本结构RNN基本模型的主要问题在于梯度爆炸和消失。同时,在前向过程中,开始时刻的输入对后面时刻的影响越来越小,这就是长距离依赖问题。在生物体中,神经元拥有对过去时序状态很强的记忆能力。而RNN中的长距离依赖问题则导致该神经网络失去了记忆的能力。而后提出的长短期记忆(Long-ShortTermMemory,LSTM)模型就是要解决这两个问题,该模型通过引入若干门来解决,相比RNN多了一个状态。这个状态用16
本文编号:3373759
【文章来源】:电子科技大学四川省 211工程院校 985工程院校 教育部直属院校
【文章页数】:99 页
【学位级别】:硕士
【部分图文】:
AFL模糊测试方案
第二章漏洞挖掘与深度学习理论综述列预测等。如图2-2所示,其基本结构为包含多个节点的输入层,输出层,以及具有多个层次,多个节点的使用多种方式连接的隐藏层。简单来说,就是多层神经元的组合网络结构,其中每一层神经元包含多个节点,层与层之间的节点互相连接。图2-2神经网络基本结构BP神经网络主要可以分为两个过程,第一个是信号的前向传播,信号从输入层进入,经过隐藏层,最后传播到输出层,第二个是误差的反向传播,即从输出层方向传播到隐藏层,最后到输入层。在误差反向传播的过程中,BP算法依次调节各个神经元的权重和阈值,最终完成模型的训练。2.3.2卷积神经网络卷积神经网络(ConcurrentNerualNetwork,CNN)是一种带有卷积结构的深度神经网络,最早是为了进行图像预处理而设计出的一种模型。CNN网络一般包括:(1)输入层,通常是输入的图片等数据。(2)卷积层,包含用于卷积计算的过滤器。当给定一张新图时,CNN并不能准确地知道这些特征到底要匹配原图的哪些部分,所以它会在原图中把每一个可能的位置都进行尝试,相当于把这个特征变成了一个过滤器。(3)池化层,用于缩减矩阵,减少参数数量。对于图片来说,池化就是将输入图像进行缩小,减少像素信息,只保留重要信息。(4)全连接层,即全连接的神经网络,在整个卷积神经网络中起到分类器的作用,即通过卷积,池化等过程后,再经过全连接层对结果进行识别分类。(5)输出层,用于分类输出。卷积神经网络本质上是一种从输入到输出的映射,它能够学习大量的输入与15
墓亓?浴T谄胀ǖ纳窬??缰校?阌氩阒?涞慕诘闶腔ハ嗔?拥模?欢??一网络层的节点之间却是互不关联的。因此,它不能够很好的表达在同一层的节点的关联性,即序列数据的前后关联性。循环神经网络是具有时间联结的前馈神经网络,它们有了状态,通道与通道之间有了时间上的联系。神经元的输入信息,不仅包括前一神经细胞层的输出,还包括它自身在先前通道的状态,如图2-3所示,左侧图形就是RNN模型的基本结构,而右侧就是它在时间上进行展开的示意图。xt是时刻t的输入,相应的ht,ot分别是对应时刻t的隐藏层和输出层。图2-3RNN模型基本结构RNN基本模型的主要问题在于梯度爆炸和消失。同时,在前向过程中,开始时刻的输入对后面时刻的影响越来越小,这就是长距离依赖问题。在生物体中,神经元拥有对过去时序状态很强的记忆能力。而RNN中的长距离依赖问题则导致该神经网络失去了记忆的能力。而后提出的长短期记忆(Long-ShortTermMemory,LSTM)模型就是要解决这两个问题,该模型通过引入若干门来解决,相比RNN多了一个状态。这个状态用16
本文编号:3373759
本文链接:https://www.wllwen.com/guanlilunwen/ydhl/3373759.html