典型机器学习算法在PM2.5浓度预测研究中的实现与比较
发布时间:2021-04-19 04:37
改革开放以来,我国经济发展迅猛,党的十八大提出了当前的奋斗目标是人民对于美好生活的向往与追求。然而,空气质量污染问题频频出现,尤以雾霾污染为重。雾霾等空气污染不仅给人类的正常生产、生活、工作和学习造成诸多不便,而且还对人们的身心健康带来严重的危害,阻碍社会的可持续发展。PM2.5作为雾霾形成的主要原因,对PM2.5进行科学有效的预测,可以使人们提前做好防护工作,最大限度地减少对人体的危害。工业化是现代化的基础,我国一直在努力实现工业化的路上,大气污染问题常伴随其中,因此对PM2.5浓度的预测成为一个非常现实的课题。在当代研究PM2.5的课题中,很少运用几种类型的典型机器学习算法来进行对比研究。本文主要运用了传统机器学习算法、深度学习算法、集成算法下的几种理论模型,选取了中国具有代表性城市北京的2019年9月1日-30日PM2.5的面板数据,以PM2.5实际浓度值作为因变量,以北京市的DEWP、TEMP、PRES、Cbwd、Lws、Ls、lr等数据值为自变量,分别运用三类算法即传统回归算法、深度学习算法、集成算法下的多种模型对北京市的PM2.5浓度预测的效率与准确性进行比较。研究结果表明...
【文章来源】:江西财经大学江西省
【文章页数】:50 页
【学位级别】:硕士
【部分图文】:
技术路径图
典型机器学习算法在PM2.5浓度预测研究中的实现与比较10图2-4支持向量与间隔2.1.3核函数支持向量机有一个重要的优点是可以使用核函数(KernelFunction)。核函数可以隐式地将样本从原始特征空间映射到更高维的空间,从而解决原始特征空间中的线性不可分问题。表2-1支持向量机常用核函数名称表达式参数线性核函数(,)=多项式核函数(,)=[()+1]d≥1为多项式的次数径向基核函数(,)={||22}σ>0为高斯核的带宽拉普拉斯核函数(,)=(‖‖)σ>0Sigmoid核函数(,)=[()+]tanh为双曲正切函数,β>0,θ<02.2神经网络2.2.1BP神经网络算法原理人工神经网络的主要连接形式主要有前馈型神经网络和反馈型神经网络。常用的前馈型神经网络有感知器神经网络、BP神经网络,常用的反馈型有Hopfield网络。这里介绍误差反向传播算法,即BP简单神经网络。BP神经网络是一种由误差反向传播算法训练所得的多层前馈神经网络,由输
第2章理论基础11入层、隐含层以及输出层构成。BP神经网络的基本思想是通过对输入样本不断地训练,输入的训练样本经过隐含层和输出层各节点的处理得到一个期望输出,将期望输出与实际输出进行比较,如果存在误差则开始反向传播,反向传播的过程中模型不断调节各个连接节点的权值和阈值从而缩小实际输出与期望输出之间的差距,直到误差缩小到允许的范围或者模型训练次数达到最大时停止训练,保存此时各节点的连接权值和阈值,得到最终的BP神经网络模型。图2-1BP神经网络结构2.2.2DropoutDropout可以适用于卷积和循环神经网络层,是一类用于神经网络训练或推理的随机化技术,被广泛地应用于模型压缩、神经网络正则化等任务。2.2.3正则化泛化问题是机器学习模型的关键问题,对于神经网络来说,通常情况下,训练数据集上的经验风险最小化和期望风险并不一致,这容易导致过拟合现象出现。所以,影响模型能力的最关键因素是提高神经网络的泛化能力。正则化是一类通过引入约束、增加先验、早停等来限制模型的复杂程度度,从而避免其出现过拟合状况,是一种可以有效提高泛化能力的方法。
本文编号:3146847
【文章来源】:江西财经大学江西省
【文章页数】:50 页
【学位级别】:硕士
【部分图文】:
技术路径图
典型机器学习算法在PM2.5浓度预测研究中的实现与比较10图2-4支持向量与间隔2.1.3核函数支持向量机有一个重要的优点是可以使用核函数(KernelFunction)。核函数可以隐式地将样本从原始特征空间映射到更高维的空间,从而解决原始特征空间中的线性不可分问题。表2-1支持向量机常用核函数名称表达式参数线性核函数(,)=多项式核函数(,)=[()+1]d≥1为多项式的次数径向基核函数(,)={||22}σ>0为高斯核的带宽拉普拉斯核函数(,)=(‖‖)σ>0Sigmoid核函数(,)=[()+]tanh为双曲正切函数,β>0,θ<02.2神经网络2.2.1BP神经网络算法原理人工神经网络的主要连接形式主要有前馈型神经网络和反馈型神经网络。常用的前馈型神经网络有感知器神经网络、BP神经网络,常用的反馈型有Hopfield网络。这里介绍误差反向传播算法,即BP简单神经网络。BP神经网络是一种由误差反向传播算法训练所得的多层前馈神经网络,由输
第2章理论基础11入层、隐含层以及输出层构成。BP神经网络的基本思想是通过对输入样本不断地训练,输入的训练样本经过隐含层和输出层各节点的处理得到一个期望输出,将期望输出与实际输出进行比较,如果存在误差则开始反向传播,反向传播的过程中模型不断调节各个连接节点的权值和阈值从而缩小实际输出与期望输出之间的差距,直到误差缩小到允许的范围或者模型训练次数达到最大时停止训练,保存此时各节点的连接权值和阈值,得到最终的BP神经网络模型。图2-1BP神经网络结构2.2.2DropoutDropout可以适用于卷积和循环神经网络层,是一类用于神经网络训练或推理的随机化技术,被广泛地应用于模型压缩、神经网络正则化等任务。2.2.3正则化泛化问题是机器学习模型的关键问题,对于神经网络来说,通常情况下,训练数据集上的经验风险最小化和期望风险并不一致,这容易导致过拟合现象出现。所以,影响模型能力的最关键因素是提高神经网络的泛化能力。正则化是一类通过引入约束、增加先验、早停等来限制模型的复杂程度度,从而避免其出现过拟合状况,是一种可以有效提高泛化能力的方法。
本文编号:3146847
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3146847.html