基于神经网络的量化选股模型研究
发布时间:2021-10-16 17:28
2020年2月12号到3月16日,美国道琼斯指数在35天内从最高的29568.57跌到18917.46,跌幅达到36.02%。期间出现多次熔断,很多投资者面临着巨大的财务问题,甚至破产。与之不同的是西蒙斯创办的大奖章基金,在疯狂熔断的3月,大奖章基金获得了9.9%的纯利润回报,而该基金避免损失的秘诀其实是量化投资。作为量化投资的分支之一,利用神经网络来预测股票价格趋势在过去几年中已经成为了一个热点和焦点。本文主要研究神经网络在量化选股上的应用。针对2016年2月1日到2020年2年1日四年的所有A股,通过预测A股未来一周的股价趋势来选出表现更好的三个个股。为了符合预测一周内的股价趋势,本文选择了影响股价趋势的5个技术指标(最高价、最低价、开盘价、收盘价和换手率),通过利用过去34个日数据和过去30个周数据,将一维的时间序列变成了一个64×5的二维数据,然后以周为步长向前延伸,窗口化生成训练集和验证集。本文研究了隐藏层的层数、批次、迭代次数以及优化器等参数对神经网络模型预测结果的影响并对模型进行相应的参数优化,并用这两种神经网络对个股涨跌进行预测,结果表明两种神经网络模型对股价预测效果都...
【文章来源】:江西财经大学江西省
【文章页数】:67 页
【学位级别】:硕士
【部分图文】:
三层神经元感知器
2基于数据模型的量化交易基本原理11MLP神经网络层与层之间是全连接的(全连接是上一层的任何一个神经元与下一层的所有神经元都有连接)。MLP可以看做是一个有向图,其存在多个节点,每一个全连接层连接到下一层。除了输入节点外,每个节点都是一个神经元,这些神经元的末端都是一个非线性激活函数。2.1.2常见的激活函数神经网络主要有权重、偏置和激活函数这三个基本要素。权重表示神经元之间的连接强度,偏置是模型的一个重要参数,激活函数其实是具有非线性映射的功能。激活函数可以将输出结果限定在一定数值范围内,一般(-1~1)或(0~1)之间。常见的激活函数有以下几种:1、sigmoid激活函数1()1exsigmoidx(2-1)图2-2sigmoid曲线图图2-2为sigmoid函数曲线图,sigmoid函数经常被大家所使用,其主要原因是:它的输出处于[0,1]范围内,特别适用于输出概率的模型。由于任何概率的取值在0和1范围之间,所以sigmoid激活函数是最好的选择之一。这个函数是单调的,但是其导数不是,sigmoid激活函数可能会导致神经网络在训练的时候无法收敛。
基于神经网络的量化模型研究122、tanh激活函数tanh()xxxxeexee(2-2)图2-3tanh曲线图如图2-3所示,tanh激活函数的曲线与sigmoid激活函数的曲线相似,但是要比sigmoid激活函数好。Tanh激活函数的取值范围是(-1,1)。tanh激活函数的优点在于:如果输入为负数,则输出也为负数;输入为0,则输出也近似为0。该函数是可微分、单调的,但其导数不单调。Tanh激活函数主要用于分类。Tanh和sigmoid激活函数都可用于前馈网络。3、relu激活函数(RectifiedLinearUnit)[36]R(x)max(0,x)(2-3)
本文编号:3440213
【文章来源】:江西财经大学江西省
【文章页数】:67 页
【学位级别】:硕士
【部分图文】:
三层神经元感知器
2基于数据模型的量化交易基本原理11MLP神经网络层与层之间是全连接的(全连接是上一层的任何一个神经元与下一层的所有神经元都有连接)。MLP可以看做是一个有向图,其存在多个节点,每一个全连接层连接到下一层。除了输入节点外,每个节点都是一个神经元,这些神经元的末端都是一个非线性激活函数。2.1.2常见的激活函数神经网络主要有权重、偏置和激活函数这三个基本要素。权重表示神经元之间的连接强度,偏置是模型的一个重要参数,激活函数其实是具有非线性映射的功能。激活函数可以将输出结果限定在一定数值范围内,一般(-1~1)或(0~1)之间。常见的激活函数有以下几种:1、sigmoid激活函数1()1exsigmoidx(2-1)图2-2sigmoid曲线图图2-2为sigmoid函数曲线图,sigmoid函数经常被大家所使用,其主要原因是:它的输出处于[0,1]范围内,特别适用于输出概率的模型。由于任何概率的取值在0和1范围之间,所以sigmoid激活函数是最好的选择之一。这个函数是单调的,但是其导数不是,sigmoid激活函数可能会导致神经网络在训练的时候无法收敛。
基于神经网络的量化模型研究122、tanh激活函数tanh()xxxxeexee(2-2)图2-3tanh曲线图如图2-3所示,tanh激活函数的曲线与sigmoid激活函数的曲线相似,但是要比sigmoid激活函数好。Tanh激活函数的取值范围是(-1,1)。tanh激活函数的优点在于:如果输入为负数,则输出也为负数;输入为0,则输出也近似为0。该函数是可微分、单调的,但其导数不单调。Tanh激活函数主要用于分类。Tanh和sigmoid激活函数都可用于前馈网络。3、relu激活函数(RectifiedLinearUnit)[36]R(x)max(0,x)(2-3)
本文编号:3440213
本文链接:https://www.wllwen.com/shoufeilunwen/xixikjs/3440213.html