当前位置:主页 > 管理论文 > 移动网络论文 >

基于卷积神经网络的网络流关联技术研究

发布时间:2021-10-07 06:44
  随着信息技术高速发展,互联网的功能越来越强大,极大地提升了生活质量。然而,在网络带来各种便利的同时,网络安全问题也日益增多,尤其在匿名网络或基于“垫脚石”的网络环境中,攻击者常常利用其隐蔽性实施网络攻击而难以被追踪到,因此需要研究新的流关联技术来实现对攻击者的追踪与溯源。本文在对现有流关联技术进行研究与分析的基础上,针对当前被动网络流量分析的流关联大多使用统计相关算法的关联方法缺陷,提出了一种基于流量特征图和卷积神经网络的流关联方法,通过使用深度学习算法代替传统的统计相关算法提高检测的准确度;针对当前需要分析计算极大段流量特征数据所造成的存储和计算开销过大,提出了一种基于压缩感知与卷积神经网络的流关联方法。本文的主要研究工作如下:(1)针对传统被动流量分析方法使用统计相关算法检测率低并且难以抵御包数量突变的缺陷,提出了一种基于流量特征图和卷积神经网络的流关联方法。首先将入口、出口网络流划分时隙,计算时隙内包数量,转化为特征图,由于关联与非关联流量的特征图存在差异,通过使用卷积神经网络对关联与非关联流量特征图进行分类,从而实现判断是否关联。最后,通过实验验证了该方法能抵御一定程度包数量突... 

【文章来源】:江苏大学江苏省

【文章页数】:72 页

【学位级别】:硕士

【部分图文】:

基于卷积神经网络的网络流关联技术研究


卷积操作示例

函数图,卷积,激活函数


江苏大学工程硕士学位论文19图2.9卷积操作示例2.激活函数在卷积神经网络中,由于卷积层的输入都是上层输出的线性函数,随着网络的深度增加,如果不使用激活函数,网络的输出就都是输入的线性组合,拟合能力有限。而卷积神经网络中使用激活函数则增加了非线性因素,网络模型的拟合能力得到极大提升。在卷积神经网络中,经常使用的激活函数包括sigmoid函数、ReLU函数和tanh函数。a.sigmoid函数sigmoid函数的数学表达式如式(2.12)所示。1si()1xgmoidxe=+(2.12)sigmoid函数图如图2.10所示。图2.10sigmoid函数图sigmoid将输入变换为0到1之间。对于卷积神经网络,sigmoid在反向传播时梯度会消失且计算过程包含幂运算导致训练时间过长并且输出均值不为0,所

函数图,卷积,神经网络,网络流


基于卷积神经网络的网络流关联技术研究 以在卷积神经网络中使用较少。 b. ReLU 函数 ReLU(Rectified Linear Unit)函数的数学表达式如式(2.13)所示。 Re LU(x) =max(0, x) (2.13) ReLU 函数图如图 2.11 所示。

【参考文献】:
期刊论文
[1]流身份鉴别技术研究进展[J]. 雷程,张红旗,孙奕,杜学绘.  计算机应用研究. 2013(10)

硕士论文
[1]压缩感知理论在WSN数据收集中的应用研究[D]. 景蛴娴.长安大学 2019
[2]抗匿名网络流变换的时隙质心网络流水印技术研究[D]. 周鹏飞.南京理工大学 2017
[3]基于字典学习的电能质量数据压缩重构与扰动识别研究[D]. 张瀚文.江苏大学 2016
[4]基于流量分析的信息溯源关键技术研究[D]. 宋鸣.北京邮电大学 2014
[5]基于压缩感知的测量矩阵研究[D]. 李小波.北京交通大学 2010



本文编号:3421553

资料下载
论文发表

本文链接:https://www.wllwen.com/guanlilunwen/ydhl/3421553.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户b6a2d***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com