基于小波变换的数据预处理和LSTM在股价预测中的应用
发布时间:2022-01-04 06:55
对于利润最大化,基于模型的股票价格预测可以为投资者提供有价值的指导。然而,金融数据中存在高噪声,使用原始数据训练的深度神经网络无法实现准确地预测股票价格。为了解决这一问题,采用广泛应用于信号去噪的小波变换去噪方法对训练数据进行预处理,实验结果表明,采用软/硬阈值方法进行数据预处理可以明显抑制噪声。在本课题研究中,主要工作有:首次提出使用小波变换的方法来对原始股票数据作预处理,并将预处理数据应用于模型训练;改进了原始的小波去噪方法,改进后的方法进行数据预处理的模型训练结果性能得到提升;此外,还提出了一种新的多优化组合小波变换(MOCWT)方法,实验结果表明该方法对原始数据预处理的效果最好,在该方法中,提出了一种新的阈值去噪函数来对原始数据进行预处理,以降低信号重构中的失真程度。本课题实验中,利用小波预处理后的数据作为长短时记忆网络(LSTM)模型的训练数据来进行训练,从而进行股价预测。LSTM是一种特殊的循环神经网络(RNN),因为它本身具有的独特的“门循环”结构使得LSTM更适合于处理和预测较长时间间距和时间序列延迟类的问题。LSTM是一种典型的非线性模型,通常被看作是一个复杂的非线性...
【文章来源】:天津工业大学天津市
【文章页数】:61 页
【学位级别】:硕士
【部分图文】:
阶跃函数图像
天津工业大学硕士学位论文16有着重要意义。在感知机的训练过程中,对于训练样本(x,y),感知机的权重会做如下调整:iiiwww公式(2-3)ii(xyyw)公式(2-4)其中η∈(0,1)为学习率,从上式中可以看出,感知机对于训练样本的正确分类,即有yy,感知机将不做任何调整,反之,则根据错误的程度进行权重的调整。2.4.3前向传播算法在神经网络的训练过程中,通常使用前向传播算法[30]的计算得到神经网络的输出。不同结构的神经网络的前向传播方式也不尽相同,当前大多神经网络所使用的前向传播算法中,全连接的神经网络的前向传播模式最为简单。神经网络是由多个神经元构成,神经元是构成神经网络的最小单元,图2-2是一个最简单的神经元结构。图2-2神经元结构示意图图2-2表明,一个神经元可以有多个输入和一个输出,其中,除了其他神经元的输出可以作为神经元的输入以外,整个神经网络的输入也可以作为神经元的输入。输出是所有输入的加权和,其中,不同的输入的权重可作为神经元的参数。所谓神经网络的优化就是在训练过程中不断地对神经元中参数取值优化的过程,如图2-3是一个三层神经网络结构图。
第二章理论研究基础及相关技术介绍17图2-3三层神经网络前向传播示意图通常情况下,使用三部分信息即可求得神经网络前向传播的计算结果。其中,必不可少的是神经网络的输入,该输入值可以是具体的特征向量,这些特征向量可以从实体中取得。此外,必须定义神经网络的内部连接结构,该结构指定了神经网络内部不同神经元之间的输入输出的关系,通常此结构的设定是否合理对于神经网络解决特定问题的最终性能起到了重要的作用。最后一部分是神经元的参数,在图2-3中,使用w来表示神经元中的参数,w的上下标分别代表了神经网络的层数和连接点的编号。当指定神经网络的输入,神经网络的结构和边上的权重时,就可以通过前向传播算法来计算出神经网络的输出。2.4.4BP神经网络在深度神经网络的训练过程中,一个较为合理的损失函数通常会被用来度量训练样本的输出损失,通过最小化这个损失函数的值的方式,来实现对整个神经网络的调整寻优。在对损失函数优化求极值的过程中,使用梯度下降法来逐步迭代完成优化的方法较为普遍。其中,反向传播[31]算法即为深度神经网络的损失函数采用梯度下降法来进行迭代优化求极小值的过程中的核心算法,被称为误差反向传播神经网络,简称BP神经网络,该网络是被应用于神经网络优化中最普遍的神经网络模型之一。在BP神经网络中,梯度下降算法会通过反向传播的方式来不断调整整个网络的权重和偏置,即所谓的调参过程,使得网络的误差取得最小值。BP神经网络的结构中,主要包含三个部分,其中有输入层、隐藏层和输出层。在BP网络的训练过程中,信息的正向传播会得到网络的输出结果,误差的反向传播来实现参数的调优。输入层用来接受外界的输入信息,并将信息传递给
本文编号:3567892
【文章来源】:天津工业大学天津市
【文章页数】:61 页
【学位级别】:硕士
【部分图文】:
阶跃函数图像
天津工业大学硕士学位论文16有着重要意义。在感知机的训练过程中,对于训练样本(x,y),感知机的权重会做如下调整:iiiwww公式(2-3)ii(xyyw)公式(2-4)其中η∈(0,1)为学习率,从上式中可以看出,感知机对于训练样本的正确分类,即有yy,感知机将不做任何调整,反之,则根据错误的程度进行权重的调整。2.4.3前向传播算法在神经网络的训练过程中,通常使用前向传播算法[30]的计算得到神经网络的输出。不同结构的神经网络的前向传播方式也不尽相同,当前大多神经网络所使用的前向传播算法中,全连接的神经网络的前向传播模式最为简单。神经网络是由多个神经元构成,神经元是构成神经网络的最小单元,图2-2是一个最简单的神经元结构。图2-2神经元结构示意图图2-2表明,一个神经元可以有多个输入和一个输出,其中,除了其他神经元的输出可以作为神经元的输入以外,整个神经网络的输入也可以作为神经元的输入。输出是所有输入的加权和,其中,不同的输入的权重可作为神经元的参数。所谓神经网络的优化就是在训练过程中不断地对神经元中参数取值优化的过程,如图2-3是一个三层神经网络结构图。
第二章理论研究基础及相关技术介绍17图2-3三层神经网络前向传播示意图通常情况下,使用三部分信息即可求得神经网络前向传播的计算结果。其中,必不可少的是神经网络的输入,该输入值可以是具体的特征向量,这些特征向量可以从实体中取得。此外,必须定义神经网络的内部连接结构,该结构指定了神经网络内部不同神经元之间的输入输出的关系,通常此结构的设定是否合理对于神经网络解决特定问题的最终性能起到了重要的作用。最后一部分是神经元的参数,在图2-3中,使用w来表示神经元中的参数,w的上下标分别代表了神经网络的层数和连接点的编号。当指定神经网络的输入,神经网络的结构和边上的权重时,就可以通过前向传播算法来计算出神经网络的输出。2.4.4BP神经网络在深度神经网络的训练过程中,一个较为合理的损失函数通常会被用来度量训练样本的输出损失,通过最小化这个损失函数的值的方式,来实现对整个神经网络的调整寻优。在对损失函数优化求极值的过程中,使用梯度下降法来逐步迭代完成优化的方法较为普遍。其中,反向传播[31]算法即为深度神经网络的损失函数采用梯度下降法来进行迭代优化求极小值的过程中的核心算法,被称为误差反向传播神经网络,简称BP神经网络,该网络是被应用于神经网络优化中最普遍的神经网络模型之一。在BP神经网络中,梯度下降算法会通过反向传播的方式来不断调整整个网络的权重和偏置,即所谓的调参过程,使得网络的误差取得最小值。BP神经网络的结构中,主要包含三个部分,其中有输入层、隐藏层和输出层。在BP网络的训练过程中,信息的正向传播会得到网络的输出结果,误差的反向传播来实现参数的调优。输入层用来接受外界的输入信息,并将信息传递给
本文编号:3567892
本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/3567892.html