当前位置:主页 > 科技论文 > 软件论文 >

深度神经网络测试用例选择技术

发布时间:2021-04-07 10:25
  随着深度学习系统的发展,越来越多的领域开始大规模使用深度神经网络。所以全面测试以确保深度神经网络的鲁棒性很重要。可变强度组合测试作为一种有效的软件测试技术,能够检测参数间不同力度的交互作用产生的故障。测试用例优先级技术充分考虑测试用例的重要程度,使得具有高优先级的测试用例被尽早执行,从而在资源受限的情况下提高测试效率。在本文中提出了两种测试用例优先级技术分别为基于可变强度组合覆盖的测试用例优先级技术和基于神经元行为模式的测试用例优先级技术。通过实验对两种测试用例优先级技术的对抗样本检测能力进行研究。本文主要的研究工作如下:(1)针对深度神经网络测试提出了3种可变强度组合覆盖准则。使用MNIST数据集、4种实验模型以及5种实验样本对可变强度组合覆盖准则下模型的覆盖率峰值、单层覆盖率、覆盖率上升趋势、时间成本以及覆盖率与对抗样本之间是否存在相关性进行研究。实验结果表明:可变强度组合覆盖率与对抗样本之间存在相关性。(2)提出了基于可变强度组合覆盖的测试用例优先级技术。以可变强度组合覆盖率为优先级索引,对原始测试用例集进行优先级排序。比较基于可变强度组合覆盖的测试用例优先级技术排序后的测试用例... 

【文章来源】:南京邮电大学江苏省

【文章页数】:82 页

【学位级别】:硕士

【部分图文】:

深度神经网络测试用例选择技术


简单神经网络示意图

激活函数,图像,神经元,传递信息


南京邮电大学硕士研究生学位论文第二章相关背景知识介绍10元直接的连线是由人工训练得到的权重,神经元与神经元之间依靠权重传递信息。见图2.2所示为神经元之间传递信息的简单示意图。图2.2中神经元x1,1、x1,2、x1,3通过权重w1、w2、w3向神经元x2,1传递信息。图2.2神经元之间传递信息示意图神经元x1,1、x1,2、x1,3与权重w1、w2、w3分别相乘后求和再加偏置项,最后通过激活函数f(x)将信息传递给神经元x2,1。具体的计算如公式(2.1):2,1=(1,1×1+1,2×1+1,3×1+)(2.1)神经元的传递中激活函数起到了关键作用,它将深度神经网络中神经元传递信息的模式由线性传递转化为非线性传递,下面一小节将对常用的三种激活函数做简单的介绍。2.3.2激活函数为了避免深度神经网络中前层隐藏层的输出成为后层隐藏层的输入的线性组合,需要引入线性因素激活函数。Sigmoid、Tanh和ReLU是深度神经网络中常见的三种激活函数。图2.3常见的三种激活函数图像见图2.3从左到右分别为Sigmoid[37]、Tanh[38]和ReLU[39-41]三种常用的非线性激活函数的函数图像。

示意图,传递信息,神经元,激活函数


南京邮电大学硕士研究生学位论文第二章相关背景知识介绍10元直接的连线是由人工训练得到的权重,神经元与神经元之间依靠权重传递信息。见图2.2所示为神经元之间传递信息的简单示意图。图2.2中神经元x1,1、x1,2、x1,3通过权重w1、w2、w3向神经元x2,1传递信息。图2.2神经元之间传递信息示意图神经元x1,1、x1,2、x1,3与权重w1、w2、w3分别相乘后求和再加偏置项,最后通过激活函数f(x)将信息传递给神经元x2,1。具体的计算如公式(2.1):2,1=(1,1×1+1,2×1+1,3×1+)(2.1)神经元的传递中激活函数起到了关键作用,它将深度神经网络中神经元传递信息的模式由线性传递转化为非线性传递,下面一小节将对常用的三种激活函数做简单的介绍。2.3.2激活函数为了避免深度神经网络中前层隐藏层的输出成为后层隐藏层的输入的线性组合,需要引入线性因素激活函数。Sigmoid、Tanh和ReLU是深度神经网络中常见的三种激活函数。图2.3常见的三种激活函数图像见图2.3从左到右分别为Sigmoid[37]、Tanh[38]和ReLU[39-41]三种常用的非线性激活函数的函数图像。

【参考文献】:
期刊论文
[1]关于改进的激活函数TReLU的研究[J]. 张涛,杨剑,宋文爱,宋超峰.  小型微型计算机系统. 2019(01)
[2]黑盒威胁模型下深度学习对抗样本的生成[J]. 孟东宇.  电子设计工程. 2018(24)
[3]基于遗传算法的航空机载软件测试用例优先级技术研究[J]. 冯廷智,成红芳.  航空科学技术. 2018(11)
[4]DroidGAN:基于DCGAN的Android对抗样本生成框架[J]. 唐川,张义,杨岳湘,施江勇.  通信学报. 2018(S1)
[5]一种面向人脸活体检测的对抗样本生成算法[J]. 马玉琨,毋立芳,简萌,刘方昊,杨洲.  软件学报. 2019(02)
[6]ReLU激活函数优化研究[J]. 蒋昂波,王维维.  传感器与微系统. 2018(02)
[7]卷积神经网络中ReLU激活函数优化设计[J]. 王双印,滕国文.  信息通信. 2018(01)
[8]多目标优化的测试用例优先级在线调整策略[J]. 张娜,姚澜,包晓安,董萌,桂宁.  软件学报. 2015(10)
[9]提高软件测试效率的方法研究[J]. 葛彦,邱一丰.  中国新通信. 2013(23)
[10]基于One-test-at-a-time策略的可变力度组合测试用例生成方法[J]. 王子元,钱巨,陈林,徐宝文.  计算机学报. 2012(12)

博士论文
[1]对抗逃避攻击的防守策略研究[D]. 张非.华南理工大学 2015

硕士论文
[1]对抗性环境下深度学习的鲁棒性研究[D]. 林哲.华南理工大学 2018
[2]激活函数导向的RNN算法优化[D]. 张尧.浙江大学 2017
[3]对抗环境下鲁棒的Android恶意软件检测方法的研究[D]. 刘文.华南理工大学 2015



本文编号:3123326

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/3123326.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户ef775***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com