当前位置:主页 > 科技论文 > 软件论文 >

针对深度学习计算平台的漏洞及攻击方法研究

发布时间:2021-07-29 17:24
  近些年来,深度学习及其硬件计算电路的不断发展和演进,使得越来越多的领域开始将基于深度学习算法的相关产品投入实际应用。大量运行深度学习推理算法的硬件计算电路产品被设计,生产和投放。以FPGA,GPU,ASIC为底层硬件的深度学习硬件计算平台被广泛的应用。但是以该平台为主的设计制造等多方环节都存在着巨大的安全隐患:一方面神经网络算法本身存在缺陷,使攻击者利用网络含有的漏洞进行恶意攻击;另一方面在硬件的生产制造过程中,存在不可信的第三方IP,工具和人员,都可能是攻击者利用的潜在目标。在此背景下,本课题对神经网络及其计算平台的安全性问题进行探究,分析神经网络算法及硬件电路在各个环节可能存在的安全漏洞和攻击方式,在此基础上总结深度学习计算平台攻击理论,并进行实验验证,为该领域的相关安全问题的防护和检测提供借鉴。本文首先介绍了深度学习,硬件木马和生成对抗网络相关基础知识,在此基础上对卷积神经网络的数据流,专用硬件电路的设计,生产和制造过程中存在的漏洞进行分析总结,并针对上述漏洞,提出一种软硬件结合的攻击理论。然后利用Pynq框架进行硬件电路的设计搭建,利用Vivado HLS工具进行卷积和池化运算... 

【文章来源】:电子科技大学四川省 211工程院校 985工程院校 教育部直属院校

【文章页数】:98 页

【学位级别】:硕士

【部分图文】:

针对深度学习计算平台的漏洞及攻击方法研究


线性分类器结构

函数曲线,函数曲线


第二章相关技术基础和理论研究92.1.1.2神经元模型一个典型的神经网络主要包含,输入层,中间层和输出层三部分。输入层和输出层主要用来将外界数据按照格式接收并将处理后的结果按照想要的数据格式输出。组成神经网络的基本结构称之为神经元,一个基本的神经元如下图所示:图2-3神经元结构神经元是神经网络的最基础单元,从上图中,x1,x2,…,xn分别为输入信号,箭头表示数据的具体流向,w1,w2,…,wn分别表示与输入信号相乘的系数权值,图片中描述的关系可用如下公式具体表示:112()()2nny=ga=gwx+wx+...+wx(2-10)输入信号x通过线性加权运算得到结果a,a再经过函数y=g(a),得到最终的输出结果。y=g(a)为激活函数(ActivationFunction),是一种非线性函数,主要是为了在输出上引入非线性因素,保证其可以应用于实际生活中的非线性问题。常见的激活函数有如下几种:1.SigmoidSigmoid又叫做Logistic激活函数,它将输入数据压缩到0~1区间之内,其函数如下:1()1xxeσ=+(2-11)该函数将较大的负数转换成0,将大的正数转换成1,其函数曲线如下所示:图2-4Sigmoid函数曲线Sigmoid函数在数据区域0和1的时候,变化率会变得平坦,梯度会趋于0。故在利用Sigmoid函数进行反向传播时,当输出接近0和1的时候所计算出来的

函数曲线,函数曲线,函数


电子科技大学硕士学位论文10梯度也会趋近于0,使得神经元的权重和偏差更新变化微小,产生梯度消失。2.tanhtanh激活函数为双曲正确函数,它与sigmoid函数相类似,tanh函数将输入数据压缩到-1~1之间,其函数表达式如下:tanh(x)=2σ(2x)1(2-12)在实际应用中,tanh函数的使用率要高于sigmoid函数,该函数将在进行数据压缩的时候,其数据符号不发生改变。Tanh函数曲线图如下所示:图2-5Tanh函数曲线Tanh函数与sigmoid函数类似,故在数值接近-1和1的时候,都会存在梯度消失的情况。3.ReLU为了解决梯度消失的情况,引入了修正线性单元(rectifiedlinearunit,ReLU)函数,该函数可以很好的解决反向更新的时候存在的梯度消失问题,其函数表达式如下:f(x)=max(0,x)(2-13)当输入数据小于等于0时,输出结果为0;当输入数据大于0时,则直接将输入数据作为输出结果。同时相比较于sigmoid函数和tanh函数,ReLU函数采用的计算更加简单明了,提高了计算效率。其函数曲线图如下所示:图2-6ReLU函数曲线


本文编号:3309739

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/3309739.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户b85e0***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com