当前位置:主页 > 经济论文 > 股票论文 >

深度学习在股指预测中的应用

发布时间:2020-07-21 20:47
【摘要】:由于传统时间序列预测模型假设条件较多,一般只能找出股价与其相关的影响因子之间的线性关系,却不能很好地反映股票非线性变化规律,因此传统的单因子和多因子循环神经网络预测精度较低。为了更好地提取数据间的非线性关系,提高对股票价格预测的准确性,本文基于编码-解码神经网络结构,将注意力机制引入神经网络中,提出基于注意力机制的循环神经网络结构。该股指价格预测模型提取了影响股指价格因子的深层特征,与简单的单因子循环网络、传统的多因子循环网络相比,提高了股指价格预测的准确性。为了加快模型的训练速度,减少模型参数量,在具体实验中也采用了去除解码环节的神经网络。仿真实验表明:在上证50股指和沪深300股指的每分钟价格预测问题上,对比其他传统网络模型,该网络模型的预测精度更高,其预测效果与不去除解码环节的网络相比无明显差异,但明显提高了数据的运算速度。该仿真实验验证了本方法是有效的股指价格预测的方法。
【学位授予单位】:浙江工业大学
【学位级别】:硕士
【学位授予年份】:2018
【分类号】:F832.51;TP183
【图文】:

循环神经网络


可变长的图像输入一样,RNN 也可以缩放序列型数据,且大理不同长度的时间序列数据。与 RNN 相关的一个想法是:在积,在一维时间序列上的卷积操作允许神经网络在时间维度 RNN 看作是对一个包含时间索引t的向量 x (t )的操作。此外 RNN 中,时间索引t仅指序列型数据的前后位置而已,而不时间先后。除了时间序列数据,RNN 还可以应用于二维空间甚至当二维图形数据涉及时间时,网络也会学习到图形数据过去几年中,应用 RNN 处理模式识别[34]、语言建模、机器题已经取得一定成功。传统的 RNN 包括输入层、隐藏层和输层由时间序列 x ( t)构成,向量 x (t )中每个元素代表与目标序列间序列的特征;隐藏层 h ( t)则相当于对t时刻之前的输入序列一个归纳提取。一个经典的 3 层 RNN 如图 3.1 所示。

时间序列,链式结构,隐藏层


函数 g ( )的输入值为过去的整个时间序列-1 -2 -3 2 , , , , , t t t tx x x x x 可以直观的看出,每个时刻的隐藏层都包含了该时刻之前所有历史息。当 RNN 的训练目的是根据过去来预测未来时,此时的神经网把隐藏层th 当作历史输入-1 -2 -3 2 1, , , , , ,t t t tx x x x x x 的某种有损总结,定程度上是一定存在的,因为 RNN 是将用任意长度的历史时-2 -3 2 1, , , , ,t tx x x x 转换为固定长度的隐藏层向量th ,取决于不同的模该有损总结可能会选择性地保存部分历史数据,以使隐藏层th 达到比如,当 RNN 是用于统计语言建模,即模型目的是给定前面的句个单词时,模型就可能没必要去保存截至时间t 的所有输入序列的存足够预测未来单词的输入信息即可。图 3.2 所示的一条链状神经个只含输入层和隐藏层的 RNN,可以将这个链式结构看成是相同神复制,而每个时刻的神经网络单元都会将其输入信息传递到下一时

函数图象,函数图象


初始值很大的话,大部分的神经元就会处在饱和严重,收敛速度慢,就会让网络变的很难学习。,才能避免这种饱和的现象。数也是常用的 S 型激活函数之一。实际上,ta形式及一阶导公式如下:tanh( )=2 (2 ) 1 x xx xe ex xe e2tanh ( x )=1-(tanh( x ))出值范围是-1 到 1 之间,经过变形之后的 tan时表现更好,但有时候特征向量间量纲相差不大微的分类判断的时候,tanh 函数的使用效果就不如图 3.4 所示:

【相似文献】

相关期刊论文 前10条

1 胡悦;;金融市场中的神经网络拐点预测法[J];金融经济;2017年18期

2 迟惠生;陈珂;;1995年世界神经网络大会述评[J];国际学术动态;1996年01期

3 吴立可;;脉冲神经网络和行为识别[J];通讯世界;2018年12期

4 林嘉应;郑柏伦;刘捷;;基于卷积神经网络的船舶分类模型[J];信息技术与信息化;2019年02期

5 俞颂华;;卷积神经网络的发展与应用综述[J];信息通信;2019年02期

6 韩真;凯文·哈特尼特;;为神经网络的通用理论建造基石[J];世界科学;2019年04期

7 王丽华;杨秀萍;王皓;高峥翔;;智能双轮平衡车的设计研究[J];数字技术与应用;2018年04期

8 张庭略;;基于硬件的神经网络加速[J];通讯世界;2018年08期

9 苏秀婷;;耦合神经网络的同步[J];绍兴文理学院学报(自然科学);2016年03期

10 朱n

本文编号:2764787


资料下载
论文发表

本文链接:https://www.wllwen.com/jingjilunwen/jinrongzhengquanlunwen/2764787.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户543c8***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com