基于改进LSTM的股价预测研究
发布时间:2021-12-16 16:51
股票投资是当代社会的比较流行的投资手段之一。伴随着较高的期望收益,其所具有的高风险也不容忽视。不断寻找最优的投资思路是投资者趋吉避凶、规避投资风险的现实需求。投资者与研究人员一直致力于探寻股票价格的变化趋势及变化规律,希望能够相对准确地预测未来的股票价格。从传统的数据统计分析方法到现有的深度神经网络模型,都被研究人员用来研究股票价格变化问题。目前,基于长短期记忆神经网络(Long Short-Term Memory,LSTM)进行的扩展研究是金融时间序列问题研究方法中比较好的一种。本文正是以LSTM模型为基础对股票价格预测问题进行了深入研究。为了解决以往实验研究出现的过拟合,梯度消失,模型崩溃等问题,本文提出了一种基于LSTM-Adaboost改进的预测模型。在模型结构选择方面,使用了Dropout机制,同时引入了L2正则项;在激活函数的选用方面,选用了PRe LU(Parametric Rectified Linear Unit)函数,这样能够提高模型预测效果,增强模型适用性;在数值实验部分,选用了两只股票的价格数据以及OHLC-Avg、RSI、MTM和MA共四个主要预测指标,使得研...
【文章来源】:辽宁科技大学辽宁省
【文章页数】:68 页
【学位级别】:硕士
【部分图文】:
线性可分SVMFig.2.1LinearlyseparableSVM
2.神经网络与深度学习102.机器学习与深度学习为了使研究更具可靠性和优越性,文章在第五章选用了四个较为成熟且具有代表性的模型与本文提出的改进模型进行了对比。本章分别介绍了对比实验的四个模型,并为第五章所需要的实验作出了铺垫。同时,对模型改进的方法使用了深度学习方面的技术,在本章也进行了相应的描述。2.1支持向量回归机支持向量机(SupportVectorMachine,SVM)是支持向量回归机的基矗SVM是由Comes和Vapnik首先于1995年提出的一种机器学习方法。SVM基于最优边界分类方法,采用结构风险最小化原则(StructureRiskMinimization,SRM)以找到置信风险和经验风险的中心点,因此在分析小样本数据时SVM的分类可以做到很精确。同时,SVM是一个凸二次优化问题,能保证找到的极值解就是全局最优解,通过降低维度空间非线性样本通过非线性映射转化为高维度线性映射。支持向量机模型可以根据数据分成线性可分和线性不可分两类,如图2.1,图2.2所示。图2.1线性可分SVMFig.2.1LinearlyseparableSVM图2.2线性不可分SVMFig.2.2Linearnon-separableSVM对于线性可分的SVM问题的解决办法是使用核函数,对于线性不可分的SVM问题的解决办法是使用软间隔和使用核函数升维的方式使得样本在高维空间线性可分。而软间隔方法的中心思想为加入松弛变量和惩罚因子,尽可能将原本线性不可分的数据进行正确分类,在这里主要以讲核函数为主。核函数是SVM的核心组成部分,同时SVM的预测模型的优劣性也与核函数有很大联系。SVM常用的核函数有以下4个[26]:
辽宁科技大学硕士学位论文29图3.3Sigmoid函数的几何图形Fig.3.3ThegeometryoftheSigmoidfunction使用sigmoid激活函数可以使输入的联系变化的值变换成0~1之间的值进行输出,但对于特别大的正数,输出则会无限逼近于1;特别小的负数,输出则会无限趋近于0。在使用sigmoid激活函数时往往会出现梯度消失的现象,同时,对于sigmoid函数每次输出的值都不是均值,这会造成后一层的神经元在一定程度上会得到上一层全部非0的均值输出之后输出全为正数的情况。这样的情况会丢失许多特征值,造成实验训练不够完善,实验预测结果不够准确。替代了sigmoid函数,目前很多人使用tanh函数来弥补sigmoid函数的一些缺陷。tanh函数改变了sigmoid函数的输出,即在tanh函数作用下的输出值是以零为中心的均值,其数学表达形式如式(3.15)、式(3.16),tanh函数的几何图形如图3.4所示。()tanh()xxxxeefxxee==+(3.15)tanh(x)=2sigmoid(2x)1(3.16)图3.4Tanh函数的几何图形Fig.3.4ThegeometryoftheTanhfunction
本文编号:3538484
【文章来源】:辽宁科技大学辽宁省
【文章页数】:68 页
【学位级别】:硕士
【部分图文】:
线性可分SVMFig.2.1LinearlyseparableSVM
2.神经网络与深度学习102.机器学习与深度学习为了使研究更具可靠性和优越性,文章在第五章选用了四个较为成熟且具有代表性的模型与本文提出的改进模型进行了对比。本章分别介绍了对比实验的四个模型,并为第五章所需要的实验作出了铺垫。同时,对模型改进的方法使用了深度学习方面的技术,在本章也进行了相应的描述。2.1支持向量回归机支持向量机(SupportVectorMachine,SVM)是支持向量回归机的基矗SVM是由Comes和Vapnik首先于1995年提出的一种机器学习方法。SVM基于最优边界分类方法,采用结构风险最小化原则(StructureRiskMinimization,SRM)以找到置信风险和经验风险的中心点,因此在分析小样本数据时SVM的分类可以做到很精确。同时,SVM是一个凸二次优化问题,能保证找到的极值解就是全局最优解,通过降低维度空间非线性样本通过非线性映射转化为高维度线性映射。支持向量机模型可以根据数据分成线性可分和线性不可分两类,如图2.1,图2.2所示。图2.1线性可分SVMFig.2.1LinearlyseparableSVM图2.2线性不可分SVMFig.2.2Linearnon-separableSVM对于线性可分的SVM问题的解决办法是使用核函数,对于线性不可分的SVM问题的解决办法是使用软间隔和使用核函数升维的方式使得样本在高维空间线性可分。而软间隔方法的中心思想为加入松弛变量和惩罚因子,尽可能将原本线性不可分的数据进行正确分类,在这里主要以讲核函数为主。核函数是SVM的核心组成部分,同时SVM的预测模型的优劣性也与核函数有很大联系。SVM常用的核函数有以下4个[26]:
辽宁科技大学硕士学位论文29图3.3Sigmoid函数的几何图形Fig.3.3ThegeometryoftheSigmoidfunction使用sigmoid激活函数可以使输入的联系变化的值变换成0~1之间的值进行输出,但对于特别大的正数,输出则会无限逼近于1;特别小的负数,输出则会无限趋近于0。在使用sigmoid激活函数时往往会出现梯度消失的现象,同时,对于sigmoid函数每次输出的值都不是均值,这会造成后一层的神经元在一定程度上会得到上一层全部非0的均值输出之后输出全为正数的情况。这样的情况会丢失许多特征值,造成实验训练不够完善,实验预测结果不够准确。替代了sigmoid函数,目前很多人使用tanh函数来弥补sigmoid函数的一些缺陷。tanh函数改变了sigmoid函数的输出,即在tanh函数作用下的输出值是以零为中心的均值,其数学表达形式如式(3.15)、式(3.16),tanh函数的几何图形如图3.4所示。()tanh()xxxxeefxxee==+(3.15)tanh(x)=2sigmoid(2x)1(3.16)图3.4Tanh函数的几何图形Fig.3.4ThegeometryoftheTanhfunction
本文编号:3538484
本文链接:https://www.wllwen.com/guanlilunwen/huobilw/3538484.html