基于强化学习与LSTM的短期电力负荷预测研究
发布时间:2021-01-25 22:23
随着能源领域技术的进步,电力可以更方便,更有效,更经济地生成,运输和储存。智能电网旨在创建自动化,高效的能源输送网络,以改善电力输送的可靠性和质量,以及网络安全性,能源效率和需求侧管理方面。预测电力需求是电力系统管理中的一项基本任务,高估或低估需求可能会导致电网不稳定以及资源利用不足,从而导致高昂的经济成本。电力系统基础架构规划需要长期负荷预测(数月至一年),但是,智能电网的运营决策必须在短时间内做出,并且需要短期负荷预测(STLF)(数小时至数天)。准确的短期负荷预测对于电力部门的有效运营至关重要。由于较高的波动性和负载的不确定性,因此很难对单个家庭或建筑物等细粒度来预测负载,本文电力负荷针对部分地区整体负荷进行预测。本文主要研究以下两个问题:1、引入强化学习思想,与长短期记忆网络结合,建立模型进行短期电力负荷预测;2、验证深度学习网络结构对短期电力负荷预测准确性的影响。本文主要内容如下:首先,构造短期电力负荷特征集合,对历史电力负荷数据进行缺失值补全,异常值剔除等数据预处理操作,选取与电力负荷有关的影响因素,例如温度、日期时间信息等,针对不同特征的情况,选取合适的预处理方式,将处理...
【文章来源】:内蒙古科技大学内蒙古自治区
【文章页数】:49 页
【学位级别】:硕士
【部分图文】:
多层前馈神经网络
内蒙古科技大学硕士学位论文-17-零填充,则填充与输入维数匹配。假设第k层有n(k)个神经元,第k-1层有n(k-1)个神经元,全连接共有连接边n(k)*n(k-1)个,卷积层和下一层之间的连接数大大减少,由原来的n(k)*n(k-1)个连接变为n(k)*m个连接,m为滤波器大校图3.3全连接层图3.4卷积层用卷积来代替全连接,第k层的净输入z(k)为第k-1层活性值a(k-1)和滤波器w(k)∈Rm的卷积,计算方式如式4-6所示。z(k)=w(k)⊕a(k-1)+b(k)(式3-6)其中,滤波器w(k)为可学习的权重向量,b(k)∈R为可学习的偏置。作为参数的滤波器w(k)对于第k层的所有的神经元都是相同的,权重共享可以理解为一个滤波器只捕捉输入数据中的一种特定的局部特征,若提取多种特征则使用多个不同的滤波器。由于局部连接和权重共享,卷积层的参数只有一个m维的权重w(k)和1维的偏置b(k),共m+1个参数。一个典型的卷积网络是由卷积层、汇聚层、全连接层交叉堆叠而成。卷积层用来提取一个局部区域的特征,不同卷积核大小相当于不同尺寸的特征提取器,汇聚层进行特征选择,降低特征数量,进而减少参数数量。汇聚是指对每个区域进行下采样,得到一个值作为该区域的概括,经常使用到的汇聚函数有两种:最大汇聚(MaxPooling),从一个区域内的所有神经元中挑选最大值,平均汇聚(MeanPooling),计算出区域内所有神经元的平均值,汇聚层能够有效减少神经元数量,使得网络对
内蒙古科技大学硕士学位论文-17-零填充,则填充与输入维数匹配。假设第k层有n(k)个神经元,第k-1层有n(k-1)个神经元,全连接共有连接边n(k)*n(k-1)个,卷积层和下一层之间的连接数大大减少,由原来的n(k)*n(k-1)个连接变为n(k)*m个连接,m为滤波器大校图3.3全连接层图3.4卷积层用卷积来代替全连接,第k层的净输入z(k)为第k-1层活性值a(k-1)和滤波器w(k)∈Rm的卷积,计算方式如式4-6所示。z(k)=w(k)⊕a(k-1)+b(k)(式3-6)其中,滤波器w(k)为可学习的权重向量,b(k)∈R为可学习的偏置。作为参数的滤波器w(k)对于第k层的所有的神经元都是相同的,权重共享可以理解为一个滤波器只捕捉输入数据中的一种特定的局部特征,若提取多种特征则使用多个不同的滤波器。由于局部连接和权重共享,卷积层的参数只有一个m维的权重w(k)和1维的偏置b(k),共m+1个参数。一个典型的卷积网络是由卷积层、汇聚层、全连接层交叉堆叠而成。卷积层用来提取一个局部区域的特征,不同卷积核大小相当于不同尺寸的特征提取器,汇聚层进行特征选择,降低特征数量,进而减少参数数量。汇聚是指对每个区域进行下采样,得到一个值作为该区域的概括,经常使用到的汇聚函数有两种:最大汇聚(MaxPooling),从一个区域内的所有神经元中挑选最大值,平均汇聚(MeanPooling),计算出区域内所有神经元的平均值,汇聚层能够有效减少神经元数量,使得网络对
本文编号:2999997
【文章来源】:内蒙古科技大学内蒙古自治区
【文章页数】:49 页
【学位级别】:硕士
【部分图文】:
多层前馈神经网络
内蒙古科技大学硕士学位论文-17-零填充,则填充与输入维数匹配。假设第k层有n(k)个神经元,第k-1层有n(k-1)个神经元,全连接共有连接边n(k)*n(k-1)个,卷积层和下一层之间的连接数大大减少,由原来的n(k)*n(k-1)个连接变为n(k)*m个连接,m为滤波器大校图3.3全连接层图3.4卷积层用卷积来代替全连接,第k层的净输入z(k)为第k-1层活性值a(k-1)和滤波器w(k)∈Rm的卷积,计算方式如式4-6所示。z(k)=w(k)⊕a(k-1)+b(k)(式3-6)其中,滤波器w(k)为可学习的权重向量,b(k)∈R为可学习的偏置。作为参数的滤波器w(k)对于第k层的所有的神经元都是相同的,权重共享可以理解为一个滤波器只捕捉输入数据中的一种特定的局部特征,若提取多种特征则使用多个不同的滤波器。由于局部连接和权重共享,卷积层的参数只有一个m维的权重w(k)和1维的偏置b(k),共m+1个参数。一个典型的卷积网络是由卷积层、汇聚层、全连接层交叉堆叠而成。卷积层用来提取一个局部区域的特征,不同卷积核大小相当于不同尺寸的特征提取器,汇聚层进行特征选择,降低特征数量,进而减少参数数量。汇聚是指对每个区域进行下采样,得到一个值作为该区域的概括,经常使用到的汇聚函数有两种:最大汇聚(MaxPooling),从一个区域内的所有神经元中挑选最大值,平均汇聚(MeanPooling),计算出区域内所有神经元的平均值,汇聚层能够有效减少神经元数量,使得网络对
内蒙古科技大学硕士学位论文-17-零填充,则填充与输入维数匹配。假设第k层有n(k)个神经元,第k-1层有n(k-1)个神经元,全连接共有连接边n(k)*n(k-1)个,卷积层和下一层之间的连接数大大减少,由原来的n(k)*n(k-1)个连接变为n(k)*m个连接,m为滤波器大校图3.3全连接层图3.4卷积层用卷积来代替全连接,第k层的净输入z(k)为第k-1层活性值a(k-1)和滤波器w(k)∈Rm的卷积,计算方式如式4-6所示。z(k)=w(k)⊕a(k-1)+b(k)(式3-6)其中,滤波器w(k)为可学习的权重向量,b(k)∈R为可学习的偏置。作为参数的滤波器w(k)对于第k层的所有的神经元都是相同的,权重共享可以理解为一个滤波器只捕捉输入数据中的一种特定的局部特征,若提取多种特征则使用多个不同的滤波器。由于局部连接和权重共享,卷积层的参数只有一个m维的权重w(k)和1维的偏置b(k),共m+1个参数。一个典型的卷积网络是由卷积层、汇聚层、全连接层交叉堆叠而成。卷积层用来提取一个局部区域的特征,不同卷积核大小相当于不同尺寸的特征提取器,汇聚层进行特征选择,降低特征数量,进而减少参数数量。汇聚是指对每个区域进行下采样,得到一个值作为该区域的概括,经常使用到的汇聚函数有两种:最大汇聚(MaxPooling),从一个区域内的所有神经元中挑选最大值,平均汇聚(MeanPooling),计算出区域内所有神经元的平均值,汇聚层能够有效减少神经元数量,使得网络对
本文编号:2999997
本文链接:https://www.wllwen.com/shoufeilunwen/boshibiyelunwen/2999997.html