多变量时间序列极限学习机预测
发布时间:2020-10-24 16:13
时间序列不仅可以反映天文、金融、生物医学、控制学、海洋科学等领域的发展变化过程,还可以探索其发展变化规律来预测某些现象。随着时间序列分析的深入,国内外已提出一系列线性和非线性预测方法,并取得了良好的应用效果,但其中绝大多数方法都是针对单变量时间序列预测提出的。然而现实生活中所采集的时间序列数据往往不是由单一因素所决定,需要综合考虑多种因素。因此,对多变量时间序列预测进行研究更具有现实意义。由于多变量时间序列数据具有不同于单变量时间序列自身的特性:多噪声、多尺度、变量相关等,现有的单变量时间序列预测方法无法直接预测多变量时间序列,因此研究多变量时间序列预测具有重要的理论价值。本文以极限学习机(ELM)为工具,针对多变量时间序列预测展开研究,提出三种多变量时间序列极限学习机预测模型,主要完成了如下工作:1、极限学习机在参数学习过程中仅考虑已知样本信息,而在实际应用中样本个数往往有限,因此ELM仅考虑有限已知样本信息无法满足预测准确性的需求。针对这一问题,在极限学习机的特征空间中综合考虑特征样本的已知信息和潜在信息,提出潜在极限学习机(LELM)预测模型。在多变量时间序列上的实验结果表明,LELM能够有效提高极限学习机的预测能力。2、在极限学习机预测多变量时间序列时,需将矩阵样本转换成向量作为模型的输入,这极大地影响模型预测精度。针对这一问题,结合奇异值分解思想,在极限学习机隐藏层和输出层之间增加SVD降维层,提出一种基于矩阵形式输入的多变量时间序列极限学习机预测模型(SVDELM)。在混沌时间序列和股票时间序列上的实验结果表明,SVDELM是一种有效的多变量时间序列预测模型。3、SVDELM和一.维极限学习机(2D-ELM)均是基于矩阵形式输入的预测模型,然而SVDELM对特征空间样本降维,2D-ELM在投影过程中对输入样本降维,都将造成原始数据信息的丢失。针对上述问题,提出一种无需对输入样本降维的预测模型,即改进的二维极限学习机(I2D-ELM)。实验结果表明I2D-ELM能够大大提高多变量时间序列预测模型的精度。
【学位单位】:福州大学
【学位级别】:硕士
【学位年份】:2016
【中图分类】:C829.2
【部分图文】:
多研宂者发现,多层前反馈神经网络在训练样本无限多时具有通用逼近能力,??然而实际应用中的训练集是有限的[15]。文献[32]指出,单隐层节点个数大于或??等于训练样本个数时,几乎任意非线性激励函数都能使单隐层前馈神经网络??(SL-FNN)以零误差逼近真值。然而其基于梯度下降法调整输入层和隐藏层的连??接矩阵和偏置使该算法时间开销太大。??事实上,FNN输入层和隐藏层之间的连接矩阵和偏置在学习过程中无需??每次调整,这能大大减少FNN的学习时间代价。文献[33]指出当给定连接矩阵??和隐层节点偏置时,若FNN具有W个隐层节点,则它能够以任意小误差逼近7V??个观测值,而当隐层偏置也固定时,SL-FNN能够在紧凑数据集中逼近任意连??续函数丨32]。??由于当给定连接矩阵和隐层节点偏置时,SL-FNN可以简单地看成是一个??特征空间的线性系统,为此文献[15]提出极限学习机(ELM),其基本思路是:首??先随机生成连接矩阵和偏置将说始数据集映射到特征空间,优化输出权重。I£LM??无需优化连接矩阵和偏置使其学习速度比FNN快得多,同时还具有更好的泛化??性能。??
?-???RMSE?I?MAE??名称?变量?ELM?WELM?LELM?|?ELM?WELM?LELM??x?0.0610?0.1205?0.0570?I?0.0494?0.1085?0.0465??Rossler?y?0.0738?0.1126?0.0693?0.0585?0.0993?0.0553??z?0.0004?0.0003?0.0004?0.0003?0.0002?0.0003??x?2.5869?5.685?2.4996?2.447?5.3822?2.3508??Chen’s?y?3.2753?7.3117?3.2311?3.164?6.6583?3.1073??z?4.7353?14.8716?4.5669?4.6951?14.0647?4.5247??a-?0.6010?4.4625?0.4611?0.4469?3.1089?0.3329??Lorentz?y?1.7163?6.9103?1.2280?|?1.2950?4.9053?0.9247??z?1.3855?7.8673?1.0021?|?1.0236?4.2422?0.7286??从表3-4、表3-5可以看出,本章所提出的潜在极限学习机(LELM)在6个??多变量时间序列共21个不同变量中有19个变量的RMSE和MAE均比ELM和??WELM低,说明本章所提出的LELM比ELM、WELM的预测效果更好。这是??因为LELM除了考虑了己知样本信息,还考虑了潜在样本信息,从而有效辑高??了?ELM模型的预测能力。?]>??8.5?|?I?I?I?I??
?250?300??图3-3国农科技??图3-1,?3-2,?3-3分别是LELM、ELM、WELM在3种股票时间序列开盘价??的拟合曲线。从图3-1,3-2,?3-3可以看出本章所提出的LELM在3支股票的开??盘价上预测效果均达到最好。??19??
【参考文献】
本文编号:2854692
【学位单位】:福州大学
【学位级别】:硕士
【学位年份】:2016
【中图分类】:C829.2
【部分图文】:
多研宂者发现,多层前反馈神经网络在训练样本无限多时具有通用逼近能力,??然而实际应用中的训练集是有限的[15]。文献[32]指出,单隐层节点个数大于或??等于训练样本个数时,几乎任意非线性激励函数都能使单隐层前馈神经网络??(SL-FNN)以零误差逼近真值。然而其基于梯度下降法调整输入层和隐藏层的连??接矩阵和偏置使该算法时间开销太大。??事实上,FNN输入层和隐藏层之间的连接矩阵和偏置在学习过程中无需??每次调整,这能大大减少FNN的学习时间代价。文献[33]指出当给定连接矩阵??和隐层节点偏置时,若FNN具有W个隐层节点,则它能够以任意小误差逼近7V??个观测值,而当隐层偏置也固定时,SL-FNN能够在紧凑数据集中逼近任意连??续函数丨32]。??由于当给定连接矩阵和隐层节点偏置时,SL-FNN可以简单地看成是一个??特征空间的线性系统,为此文献[15]提出极限学习机(ELM),其基本思路是:首??先随机生成连接矩阵和偏置将说始数据集映射到特征空间,优化输出权重。I£LM??无需优化连接矩阵和偏置使其学习速度比FNN快得多,同时还具有更好的泛化??性能。??
?-???RMSE?I?MAE??名称?变量?ELM?WELM?LELM?|?ELM?WELM?LELM??x?0.0610?0.1205?0.0570?I?0.0494?0.1085?0.0465??Rossler?y?0.0738?0.1126?0.0693?0.0585?0.0993?0.0553??z?0.0004?0.0003?0.0004?0.0003?0.0002?0.0003??x?2.5869?5.685?2.4996?2.447?5.3822?2.3508??Chen’s?y?3.2753?7.3117?3.2311?3.164?6.6583?3.1073??z?4.7353?14.8716?4.5669?4.6951?14.0647?4.5247??a-?0.6010?4.4625?0.4611?0.4469?3.1089?0.3329??Lorentz?y?1.7163?6.9103?1.2280?|?1.2950?4.9053?0.9247??z?1.3855?7.8673?1.0021?|?1.0236?4.2422?0.7286??从表3-4、表3-5可以看出,本章所提出的潜在极限学习机(LELM)在6个??多变量时间序列共21个不同变量中有19个变量的RMSE和MAE均比ELM和??WELM低,说明本章所提出的LELM比ELM、WELM的预测效果更好。这是??因为LELM除了考虑了己知样本信息,还考虑了潜在样本信息,从而有效辑高??了?ELM模型的预测能力。?]>??8.5?|?I?I?I?I??
?250?300??图3-3国农科技??图3-1,?3-2,?3-3分别是LELM、ELM、WELM在3种股票时间序列开盘价??的拟合曲线。从图3-1,3-2,?3-3可以看出本章所提出的LELM在3支股票的开??盘价上预测效果均达到最好。??19??
【参考文献】
相关期刊论文 前10条
1 崔兆顺;;基于小波变换的网络流量组合预测模型[J];计算机工程与应用;2014年10期
2 何群;李磊;江国乾;谢平;;基于PCA和多变量极限学习机的轴承剩余寿命预测[J];中国机械工程;2014年07期
3 董红玉;陈晓云;;基于奇异值分解和判别局部保持投影的多变量时间序列分类[J];计算机应用;2014年01期
4 王杰;毕浩洋;;基于极限学习机的烟叶成熟度分类[J];烟草科技;2013年05期
5 张金良;谭忠富;;混沌时间序列的混合预测方法[J];系统工程理论与实践;2013年03期
6 陈钦亚;姜德烁;;矩阵方程AX=B有解的判定和解的结构[J];安康学院学报;2012年03期
7 王新迎;韩敏;;基于极端学习机的多变量混沌时间序列预测[J];物理学报;2012年08期
8 席剑辉;王海丹;;基于改进RBF网络的多变量序列建模和预测[J];信息与控制;2012年02期
9 郭创新;王扬;沈勇;王媚;曹一家;;风电场短期风速的多变量局域预测法[J];中国电机工程学报;2012年01期
10 张弦;王宏力;;基于Cholesky分解的增量式RELM及其在时间序列预测中的应用[J];物理学报;2011年11期
相关硕士学位论文 前2条
1 马倩倩;多元时间序列相似性搜索算法研究[D];兰州理工大学;2013年
2 卓飞豹;多变量时间序列的预处理和聚类研究[D];福建师范大学;2009年
本文编号:2854692
本文链接:https://www.wllwen.com/guanlilunwen/tongjijuecelunwen/2854692.html