当前位置:主页 > 科技论文 > 自动化论文 >

神经网络的权值规范化研究

发布时间:2018-02-23 20:16

  本文关键词: 神经网络 权值规范 过拟合 出处:《吉林大学》2017年硕士论文 论文类型:学位论文


【摘要】:人工神经网络(Artificial Neural Network)通常又被称为神经网络,是将多个信息处理单元相互连接模拟生物学中细胞对信息的处理过程,该模型起源于1943年,由沃伦麦卡洛克和逻辑学家沃尔特共同提出,但在当时并未引起学术界的广泛关注。60年代当时神经网络的研究人员以及研究成果少的可怜。90年代由于深层网络梯度消失问题的发现和CNN反向传播问题的解决,神经网络曾有过短暂的繁荣。而现今,神经网络以及其演化的深度学习领域无疑是当下最热的课题之一,数以万计的科研工作者以及工程人员正投身于其中,神经网络又重新回到人们的视野中,这都得益于神经网络在图片识别,人工智能,商业推荐方面的卓越表现。神经网络同其他机器学习算法一样,在训练中存在过拟合问题,过拟合现象产生的原因主要是训练样本过少,导致网络并没有学习到样本的整体分布规律,从另一角度来看说明网络模型过于复杂,拟合了数据集中的噪声数据,而不是只从正确的数据进行学习。针对该问题不少学者,提出了一些防止网络过拟合的技术,其中应用最为广泛的要数规范化技术。神经网络的权值规范化通过增加对权重的惩罚相,防止在有限的训练数据下产生过于复杂的网络,能够有效地在非人工干预的情形下减弱模型的过拟合现象。寻找一个合适有效地规范化方法,对于网络的泛化效果有着重要的意义。当前神经网络规范化方法主要有两类,一类是基于权重空间发散程度的方法。例如L2规范化方法是寻找欧几里得空间内最快衰减方向,而L1规范化方法是在线性空间内寻找最快的衰减方向。更普遍的讲,当目标函数是凸函数时,网络的收敛速度与规范化方法相一致。L2方法约束的网络,其网络权重的收敛速度是二次非线性的,L1方法约束的网络,其权重的收敛是线性方式。另一种应用较广的权值规范化方法是dropout技术。这种约束方法并不采用显示的权重惩罚相,而是采用更加积极的方式,直接将某些权重连接抹去,从而抑制网络的过拟合。无论是现在广泛应用的L1还是L2规范化方法,从其定义形式中可以看出,他们都是基于网络全局的权重约束,L2规范化是在权重向量每个分量平方和之后求平方根,当限制L2规范化结果很小时,每一个权值都会很小。同样L1也存在类似的情况。不同的是,在L1约束下部分权值会为0。若能有一种有效基于局部的权值规范化方法。会对神经网络的研究有着重要的推动作用。本文深入探讨了影响神经网络性能的诸多指标,包括权重的初始化方法,损失函数的形式,激活神经元的类型。基于不平衡网络的特点,和线性神经元调节特性,着力提出一种基于传播路径的局部规范化方法,一个神经元的权重规范化值,取决于与其相连接的前向节点代价,和后一层相连接的节点代价值,基于线性神经元比例调节不变的性质,在L2规范化思想的基础上,加入了局部惩罚的规范化权值更新。本文实验部分在MINST数据集上分别对网络无规范化时、采用L1规范化方法、L2规范化方法、弃权技术方法时给出了对比结果。实验结果显示本文提出的基于传播路径的局部权值规范化算法,对防止网络过拟合,提高分类准确具有积极的意义。
[Abstract]:Artificial neural network (Artificial Neural Network) is also known as neural network, is a plurality of information processing units connected simulation process in biology of cell information, the model originated in 1943, jointly proposed by Warren MacCulloch and logician Walter, but at that time did not cause widespread concern in the academic researchers at.60 the neural network and the research results of little.90's as a result of the deep web to solve the problem of finding and gradient disappeared CNN back-propagation neural network problems, there had been a boom. However, deep learning neural network field and its evolution is undoubtedly one of the most hot topic at the moment, tens of thousands of scientists and engineers is engaged in the neural network back to people's vision, this is due to the neural network in image recognition, Artificial intelligence, business excellence. The recommended neural network with other machine learning algorithm, has the overfitting problem in training, causes the over fitting phenomenon is mainly the training sample is too small, and did not learn to lead the network distribution of the whole sample, from another point of view that the network model is too complex, fitting the noise data in data set, not only from the correct data for the study. Many scholars put forward some problems, to prevent over fitting network technology, which is most widely applied to the number of standardized technology. The weights of neural network standardization by increasing the weight of punishment, to prevent the generation of complex network when the training data is limited, can effectively reduce the phenomenon of over fitting model in non manual intervention situations. Looking for a suitable effective standardization method for Is of great significance to the network generalization effect. The neural network standardization method mainly has two kinds, one is the method of weight space based on the degree of divergence. For example the L2 standard method is to find the fastest in the Euclidean space attenuation direction, while the L1 standard method is to find the direction of attenuation of the fastest in the linear space. More generally, when the objective function is a convex function, the convergence speed and the standardized method of network.L2 is consistent in the constrained network, the network convergence speed is two times the weight of the nonlinear L1 method, constrained network convergence, its weight is linear. The weight normalization method for another application Guangzhou is dropout technology. This method is not constrained by weight penalty shows, but with a more positive way, directly to the certain weight connection erased, thereby inhibiting the over fitting of the network. It is now widely The application of the L1 or L2 standard method, from the definition of the form can be seen, they are the weight constraint network based on global L2 standard is the square root of the weight vector of each component square and after standardized results when restricted to L2 hours, each weight will be very small. Also L1 there is a similar situation. The difference is, under L1 constraint for 0. part weight if there is an effective method based on local standard weights. The study of neural network plays an important role. This paper discusses the influence of many indicators of the performance of the neural network, including the initialization method of weight loss the form of the function, types of activated neurons. Based on the unbalanced network characteristics, and linear neural regulation characteristics, puts forward a method based on the local standard propagation path, a neuron's weight normalized value, depending on the Connected to the first node cost, and connected after a layer node generation value, adjust the proportion of invariant linear neurons based on the nature, based on L2 standard idea, adding weights specification updates. Local punishment in the part of experiment on MINST data set is divided into no standardization of network L1, the standard method, L2 standard method, technology and methods are given waiver results. Experimental results show that the proposed algorithm based on local weights standard propagation path, to prevent network overfitting, is of positive significance to improve the classification accuracy.

【学位授予单位】:吉林大学
【学位级别】:硕士
【学位授予年份】:2017
【分类号】:TP18

【相似文献】

相关期刊论文 前10条

1 杨晓帅 ,付玫;神经网络技术让管理更轻松[J];软件世界;2000年11期

2 云中客;新的神经网络来自于仿生学[J];物理;2001年10期

3 唐春明,高协平;进化神经网络的研究进展[J];系统工程与电子技术;2001年10期

4 李智;一种基于神经网络的煤炭调运优化方法[J];长沙铁道学院学报;2003年02期

5 程科,王士同,杨静宇;新型模糊形态神经网络及其应用研究[J];计算机工程与应用;2004年21期

6 王凡,孟立凡;关于使用神经网络推定操作者疲劳的研究[J];人类工效学;2004年03期

7 周丽晖;从统计角度看神经网络[J];统计教育;2005年06期

8 赵奇 ,刘开第 ,庞彦军;灰色补偿神经网络及其应用研究[J];微计算机信息;2005年14期

9 袁婷;;神经网络在股票市场预测中的应用[J];软件导刊;2006年05期

10 尚晋;杨有;;从神经网络的过去谈科学发展观[J];重庆三峡学院学报;2006年03期

相关会议论文 前10条

1 徐春玉;;基于泛集的神经网络的混沌性[A];1996中国控制与决策学术年会论文集[C];1996年

2 周树德;王岩;孙增圻;孙富春;;量子神经网络[A];2003年中国智能自动化会议论文集(上册)[C];2003年

3 罗山;张琳;范文新;;基于神经网络和简单规划的识别融合算法[A];2009系统仿真技术及其应用学术会议论文集[C];2009年

4 郭爱克;马尽文;丁康;;序言(二)[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年

5 钟义信;;知识论:神经网络的新机遇——纪念中国神经网络10周年[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年

6 许进;保铮;;神经网络与图论[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年

7 金龙;朱诗武;赵成志;陈宁;;数值预报产品的神经网络释用预报应用[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年

8 田金亭;;神经网络在中学生创造力评估中的应用[A];第十二届全国心理学学术大会论文摘要集[C];2009年

9 唐墨;王科俊;;自发展神经网络的混沌特性研究[A];2009年中国智能自动化会议论文集(第七分册)[南京理工大学学报(增刊)][C];2009年

10 张广远;万强;曹海源;田方涛;;基于遗传算法优化神经网络的故障诊断方法研究[A];第十二届全国设备故障诊断学术会议论文集[C];2010年

相关重要报纸文章 前10条

1 美国明尼苏达大学社会学博士 密西西比州立大学国家战略规划与分析研究中心资深助理研究员 陈心想;维护好创新的“神经网络硬件”[N];中国教师报;2014年

2 卢业忠;脑控电脑 惊世骇俗[N];计算机世界;2001年

3 葛一鸣 路边文;人工神经网络将大显身手[N];中国纺织报;2003年

4 中国科技大学计算机系 邢方亮;神经网络挑战人类大脑[N];计算机世界;2003年

5 记者 孙刚;“神经网络”:打开复杂工艺“黑箱”[N];解放日报;2007年

6 本报记者 刘霞;美用DNA制造出首个人造神经网络[N];科技日报;2011年

7 健康时报特约记者  张献怀;干细胞移植:修复受损的神经网络[N];健康时报;2006年

8 刘力;我半导体神经网络技术及应用研究达国际先进水平[N];中国电子报;2001年

9 ;神经网络和模糊逻辑[N];世界金属导报;2002年

10 邹丽梅 陈耀群;江苏科大神经网络应用研究通过鉴定[N];中国船舶报;2006年

相关博士学位论文 前10条

1 杨旭华;神经网络及其在控制中的应用研究[D];浙江大学;2004年

2 李素芳;基于神经网络的无线通信算法研究[D];山东大学;2015年

3 石艳超;忆阻神经网络的混沌性及几类时滞神经网络的同步研究[D];电子科技大学;2014年

4 王新迎;基于随机映射神经网络的多元时间序列预测方法研究[D];大连理工大学;2015年

5 付爱民;极速学习机的训练残差、稳定性及泛化能力研究[D];中国农业大学;2015年

6 李辉;基于粒计算的神经网络及集成方法研究[D];中国矿业大学;2015年

7 王卫苹;复杂网络几类同步控制策略研究及稳定性分析[D];北京邮电大学;2015年

8 张海军;基于云计算的神经网络并行实现及其学习方法研究[D];华南理工大学;2015年

9 李艳晴;风速时间序列预测算法研究[D];北京科技大学;2016年

10 陈辉;多维超精密定位系统建模与控制关键技术研究[D];东南大学;2015年

相关硕士学位论文 前10条

1 章颖;混合不确定性模块化神经网络与高校效益预测的研究[D];华南理工大学;2015年

2 贾文静;基于改进型神经网络的风力发电系统预测及控制研究[D];燕山大学;2015年

3 李慧芳;基于忆阻器的涡卷混沌系统及其电路仿真[D];西南大学;2015年

4 陈彦至;神经网络降维算法研究与应用[D];华南理工大学;2015年

5 董哲康;基于忆阻器的组合电路及神经网络研究[D];西南大学;2015年

6 武创举;基于神经网络的遥感图像分类研究[D];昆明理工大学;2015年

7 李志杰;基于神经网络的上证指数预测研究[D];华南理工大学;2015年

8 陈少吉;基于神经网络血压预测研究与系统实现[D];华南理工大学;2015年

9 张韬;几类时滞神经网络稳定性分析[D];渤海大学;2015年

10 邵雪莹;几类时滞不确定神经网络的稳定性分析[D];渤海大学;2015年



本文编号:1527462

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/1527462.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户c68dd***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com