基于EEMD与深度学习的渭河干流径流预测研究
【学位单位】:西安理工大学
【学位级别】:硕士
【学位年份】:2020
【中图分类】:P338
【部分图文】:
器学习方式,是在神经网络的基础上发展形成的机器学习方式[50]。神经网络是受到生物神经网络的启发而诞生的,人工神经网络模拟了这个过程[51],而深度学习是以传统神经网络技术为基础而诞生的。神经网络的最小单位为感知机,在对训练数据的拟合过程中,是先对输入数据进行线性变换后再进行非线性激活的过程。神经网络的最小单位是感知机,在拟合训练数据的过程中,在非线性激活之前对输入数据进行线性变换,只有一层功能神经元,因此其学习能力非常有限,但是当集成大量感知机时,神经网络的出现极大地提高了学习能力[52]。图2-1神经网络神经元结构示意图Fig.2-1Schematicdiagramofneuralnetworkneuronstructure如图2-1为神经网络神经元结构示意图,ix为神经元的输入值,ijw为神经元的连接权重,b为偏置,zg)(为激活函数,为输出值。神经网络中正向传播时的线性变换为:=ixijw(2-3)式中:z为线性变换的输出值。神经网络在线性变换后使用激活函数的原因是,如果没有激活函数,则神经网络的下一层的输入就是前一层的线性变换的输出,而网络中都是线性变换,那么输入输出都是线性关系,与隐藏层深度相关性不大,那么网络的拟合性能就与感知机类似。因此,使用非线性函数作为激活函数可以提高深度神经网络的逼近能力,使其输出不再是输入的线性变化而是更加灵活的非线性变换[53][54][55]。2.2.1神经网络激活函数神经网络中常用的激活函数有Sigmoid、Relu和Tanh。其中最常用的是Sigmoid激活函数[56],Sigmoid是将∞,∞映射到(0,1)的非线性转换,Sigmoid的均值为0。=(2-4)
EEMD与深度学习原理9Tanh激活函数是将∞,∞映射到(-1,1)之间的非线性转换[57]。Tanh在0附近是可以被看做为线性的,均值为0.5。=(2-5)Relu激活函数是分段函数,当输入为正时,没有梯度消失的问题。Relu可以弥补Sigmoid和Tanh的梯度消失问题。=,纨,(2-6)式中:e为自然常数。2.2.2深度神经网络深度神经网络是含有多个隐藏层的神经网络,在训练过程中,使用反向传播算法根据梯度下降拟合训练数据。它与浅层神经网络不同的是,浅层神经网络在拟合数据时需要借助指数级别的参数数量才能达到理想效果,而深度神经网络仅仅需要多项式级别的参数数量即可达到相同的效果[58]。如图2-2,深度神经网络除输入层与输出层外还增加了多层隐藏层,在学习数据时使神经网络具有更强的学习能力。图2-2深度神经网络结构示意图Fig.2-2Schematicdiagramofdeepneuralnetworkstructure2.2.3循环神经网络与长短时记忆网络循环神经网络(RNN)[59]也被称作递归神经网络,是将序列作为输入的序列模型,隐藏节点呈链式连接,隐藏层的输入不仅包括输入层的输入还包括上一层上一时刻的隐藏层的输出即当前的输出也与之前的输入有关,是一种能够适应连续时间步之间依赖关系的方法,通过前向传播和后向传播算法的迭代训练来拟合序列模型。
西安理工大学工程硕士专业学位论文10图2-4循环神经网络结构示意图Fig.2-4Schematicdiagramofrecurrentneuralnetworkstructure如图2-4所示为第t步的输出,为第t步的隐藏状态,为第t步的输入,A为神经元与状态存储器,t-1步会将状态传给第t步。在训练循环神经网络时,循环神经网络的梯度计算使用了与时间相关的反向传播算法BPTT,其基本原理与BP相同[60]。循环神经网络在反向传播时使用梯度下降算法随着迭代次数的增加在连乘时会出现梯度消失或梯度爆炸的问题[61],影响迭代训练。且RNN的隐藏层只含有一个状态无法记忆长序列数据,所以只对短序列的数据较为敏感,很难处理长序列的数据[62]。长短时记忆网络解决了这一问题。与实时递归学习、时间反向传播、递归级联相关、Elman网和神经序列分块相比,长短时记忆网络可以多次运行,学习速度加快,还解决了以前的递归网络算法从未解决过的复杂时间滞后任务[63]。图2-5为长短时记忆网络神经元结构示意图。图2-5长短时记忆网络神经元结构示意图Fig.2-5Schematicdiagramoflongandshort-termmemorynetworkneuronstructure长短时记忆网络又被称作LSTM,LSTM在RNN的隐藏层中又加入了一个新的隐藏状态C来保存长期的记忆,状态C中存在遗忘门、输入门和输出门[62]。这三个单元提供类似于存储芯片的操作,用于读取,写入和重置神经元[64]。在向前传播的过程中,输入门激活值接近于0长时间处于半关闭状态,输出门保持开启,那么后期的输入信息就不会覆盖前期的信息,从而缓解了RNN中的一些梯度问题[64]。如图2-5所示,遗忘门由Sigmoid激活函数来将权重控制在0到1之间:=(2-7)式中:为遗忘门,t为时刻,σ为Sigmoid激活函数,W为遗忘门的循环权重,是当前隐藏状态,是当前输入,U为输入权重,为偏置。
【参考文献】
相关期刊论文 前10条
1 何昳颖;陈晓宏;张云;丁华龙;;BP人工神经网络在小流域径流模拟中的应用[J];水文;2015年05期
2 张潇;夏自强;黄峰;陈启慧;;基于SSA-ARIMA模型的青弋江干流径流预测[J];中国农村水利水电;2015年03期
3 尹宝才;王文通;王立春;;深度学习研究综述[J];北京工业大学学报;2015年01期
4 周娅;郭萍;古今今;;基于BP神经网络的概率径流预测模型[J];水力发电学报;2014年02期
5 章国勇;伍永刚;杨林明;王鹏飞;;基于参数优化的EEMD-LSSVM年径流组合预测模型[J];水资源与水工程学报;2013年06期
6 孙志军;薛磊;许阳明;王正;;深度学习研究综述[J];计算机应用研究;2012年08期
7 王宏伟;张鑫;邱俊楠;孙天青;;基于GA-SVR的中长期径流预报[J];西北农林科技大学学报(自然科学版);2012年02期
8 毛健;赵红东;姚婧婧;;人工神经网络的发展及应用[J];电子设计工程;2011年24期
9 舒卫民;马光文;黄炜斌;黄鹭;张洪量;;基于人工神经网络的梯级水电站群调度规则研究[J];水力发电学报;2011年02期
10 李晶;栾爽;尤明慧;;人工神经网络原理简介[J];现代教育科学;2010年S1期
相关硕士学位论文 前6条
1 陈璐;基于LSTM模型的金融时间序列预测算法研究[D];哈尔滨工业大学;2019年
2 冯锐;基于LSTM模型的九龙江流域径流序列预测研究[D];长安大学;2019年
3 左岗岗;基于机器学习的渭河流域径流预测系统研究[D];西安理工大学;2017年
4 王鑫;诺敏河流域径流变化规律分析及预报方法研究[D];东北农业大学;2014年
5 孟繁林;集合经验模态分解的理论及应用研究[D];江苏科技大学;2013年
6 吴昌友;神经网络的研究及应用[D];东北农业大学;2007年
本文编号:2866682
本文链接:https://www.wllwen.com/shoufeilunwen/benkebiyelunwen/2866682.html