当前位置:主页 > 科技论文 > 自动化论文 >

极限学习机隐含层节点选择算法研究

发布时间:2018-10-12 10:24
【摘要】:本文主要研究一种新的机器学习方法,即极限学习机(ELM)。作为一种针对单隐层前馈神经网络(SLFNs)的学习算法,ELM具有快速的学习速度和很好的泛化能力。隐含层节点在ELM算法中起着重要的作用,确定隐含层节点的方法有两种:一是剪枝法;二是增量学习方法。本文中我们介绍了两种剪枝方法,最优剪枝ELM(OP-ELM)和Tikhonov正则 OP-ELM(TROP-ELM)。我们的主要工作是ELM的增量学习方法,增量学习即首先初始化一个较小的网络,然后向网络中增加新的节点,直到生成一个我们满意的网络。当新的隐含层节点加入到已经存在的网络中时,重新训练网络往往比较费时,误差最小化极限学习机(EM-ELM)是一种增量的计算输出权值的快速方法。然而,由于过拟合等原因,EM-ELM不能总是得到好的泛化能力。在此,根据结构风险最小化准则,我们提出了一种基于正则化的EM-ELM改进方法,即增量正则化极限学习机(IR-ELM)。当我们逐一的向网络中增加新的隐含层节点时,IR-ELM可以快速的更新输出权值,同时保证网络具有很好的泛化能力,从而避免了上述提到的问题。同时,我们还提出了 IR-ELM的提升方法(EIR-ELM),它可以在一组候选隐含层节点中选出较好的一个加入到网络中,进一步提升了算法的泛化能力,同时生产更紧凑的网络。针对分类和回归问题,我们在基准数据集上与原始ELM算法,OP-ELM和TROP-ELM算法及EM-ELM和EEM-ELM算法进行了对比实验,验证了IR-ELM和EIR-ELM的有效性。
[Abstract]:In this paper, a new machine learning method, called extreme learning machine (ELM).), is studied. As a learning algorithm for single hidden layer feedforward neural network (SLFNs), ELM has fast learning speed and good generalization ability. Hidden layer nodes play an important role in ELM algorithm. There are two methods to determine hidden layer nodes: one is pruning method and the other is incremental learning method. In this paper, we introduce two pruning methods, optimal pruning ELM (OP-ELM) and Tikhonov regular OP-ELM (TROP-ELM). Our main work is the incremental learning method of ELM. Incremental learning is to initialize a small network first and then add new nodes to the network until we generate a satisfied network. When a new hidden layer node is added to an existing network, it is often time-consuming to retrain the network. Error minimization extreme learning machine (EM-ELM) is a fast incremental method for calculating output weights. However, due to over-fitting and other reasons, EM-ELM can not always get good generalization ability. Based on the structural risk minimization criterion, we propose an improved EM-ELM method based on regularization, i.e. incremental regularization extreme learning machine (IR-ELM). When we add new hidden layer nodes to the network one by one, IR-ELM can quickly update the output weights, and at the same time ensure that the network has a good generalization ability, thus avoiding the problem mentioned above. At the same time, we propose a IR-ELM lifting method (EIR-ELM), which can select a better one from a set of candidate hidden layer nodes to join the network, further improve the generalization ability of the algorithm and produce a more compact network. For the classification and regression problems, we compare with the original ELM algorithm, OP-ELM and TROP-ELM algorithm and EM-ELM and EEM-ELM algorithm on the benchmark dataset, and verify the effectiveness of IR-ELM and EIR-ELM.
【学位授予单位】:浙江大学
【学位级别】:硕士
【学位授予年份】:2017
【分类号】:TP181

【相似文献】

相关期刊论文 前10条

1 张义超;卢英;李炜;;RBF网络隐含层节点的优化[J];计算机技术与发展;2009年01期

2 翟俊海;李塔;翟梦尧;王熙照;;ELM算法中随机映射作用的实验研究[J];计算机工程;2012年20期

3 付英,曾敏,李兴源,刘俊勇,王贵德;隐含层对人工神经元网络电压安全评估的影响[J];电力系统自动化;1996年11期

4 潘昊;决定神经网络隐含层单元数目的自学习算法[J];湖北工学院学报;1998年01期

5 刘国超;贺彦林;朱群雄;;隐含层组合型ELM研究及应用[J];计算机与应用化学;2013年12期

6 王杰;毕浩洋;;一种基于粒子群优化的极限学习机[J];郑州大学学报(理学版);2013年01期

7 沈花玉;王兆霞;高成耀;秦娟;姚福彬;徐巍;;BP神经网络隐含层单元数的确定[J];天津理工大学学报;2008年05期

8 刘艳荣;;用于预测的BP网络结构设计[J];农业网络信息;2007年05期

9 王灿进;孙涛;石宁宁;王锐;王挺峰;王卫兵;郭劲;陈娟;;基于双隐含层BP算法的激光主动成像识别系统[J];光学精密工程;2014年06期

10 叶斌,雷燕;关于BP网中隐含层层数及其节点数选取方法浅析[J];商丘职业技术学院学报;2004年06期

相关硕士学位论文 前3条

1 苌群康;烟花算法优化极限学习机的研究及应用[D];郑州大学;2016年

2 徐志鑫;极限学习机隐含层节点选择算法研究[D];浙江大学;2017年

3 哈明光;单隐含层前馈神经网络结构选择研究[D];河北大学;2014年



本文编号:2265767

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2265767.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户f980b***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com