当前位置:主页 > 科技论文 > AI论文 >

73Adaboost算法改进BP神经网络预测研究

发布时间:2016-11-15 23:10

  本文关键词:Adaboost算法改进BP神经网络预测研究,由笔耕文化传播整理发布。


CN43—1258/TPISSN1007—130;计算机工程与科学;ComputerEngineering&Scie;第35卷第8期2013年8月;V01.35,No.8,Aug.2013;文章编号:1007一130X(2013)08—0;Adaboost算法改进BP神经网络预测研究;李翔,朱全银;(淮阴工学院计算机工程学院,江苏淮安223003;摘要:针对

CN43—1258/TPISSN1007—130X

计算机工程与科学

ComputerEngineering&Science

第35卷第8期2013年8月

V01.35,No.8,Aug.2013

文章编号:1007一130X(2013)08—0096—07

Adaboost算法改进BP神经网络预测研究。

李翔,朱全银

(淮阴工学院计算机工程学院,江苏淮安223003)

摘要:针对传统BP神经网络容易陷入局部极小、预测精度低的问题,提出使用Adaboost算法和

BP神经网络相结合的方法,提高网络预测精度和泛化能力。该方法首先对样本数据进行预处理并初始化测试数据分布权值;然后通过选取不同的隐含层节点数、节点传递函数、训练函数、网络学习函数构造出不同类型的BP弱预测器并对样本数据进行反复训练;最后使用Adaboost算法将得到的多个BP神经网络弱预测器组成新的强预测器。对UCI数据库中数据集进行仿真实验,结果表明本方法比传统BP网络预测平均误差绝对值减少近50%,提高了网络预测精度,为神经网络预测提供借鉴。

关键词:神经网络;强预测器;迭代算法;adaboost算法中图分类号:TPl83

doi:10.3969/j.issn.1007—130X.2013.08.015

文献标志码:A

PredictionofimprovedBPneuralnetwork

byAdaboostalgorithm

LIXiang,ZHUQuan—yin

(Facultyof

Computer

Engineering,HuaiyinInstituteofTechnology,Huai’an223003,China)

Abstract:ThetraditionalBP(BackPropagation)neuralnetworkiseasy

andhasloweraccuracy.AccordingBPneuralnetworkisproposed

to

to

to

fallintolocalminimum

thisproblem,amethodthatcombinestheAdaboostalgorithmand

improvethepredictionaccuracyandgeneralizationabilityoftheneural

network.Firstly,themethodpreprocessesthehistoricaldataandinitializesthedistributionweightsof

test

data.Secondly,itselectsdifferenthiddenlayernodes,nodetransferfunctions,trainingfunctions,

toconstruct

andnetworklearningfunctionsweakpredictorsofBPneuralnetworkandtrainsthesample

to

datarepeatedly.Finally,itmademoreweakpredictorsofBPneuralnetwork

form

newstrongpre—

dictorbyAdaboostalgorithm.ThedatabaseofUCI(UniversityofCaliforniaIrvine)isusedinexperi-ments.Theresultsshowthatthismethodpared

to

can

reducenearly50%forthemean

error

absolutevaluecorn—

thetraditionalBPnetwork,andimprovethepredictionaccuracyofnetwork.Sothismethod

providesreferencesfortheneuralnetworkprediction.

Keywords:neuralnetwork;strongpredictor;iterativealgorithm;adaboostalgorithm

络具有较高的预测精度、较好的通用性、较强的非

引言

反向传播BP(BackPropagation)神经网络是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一[1]。BP神经网

线性映射能力等优点。但是,BP神经网络也存在一些缺陷,主要表现为容易陷入局部极小值、算法收敛速度较慢、隐含单元的数目选择尚无一般性指导原则、新加入的学习样本对已学完样本的学习结果影响较大等问题。

收稿日期:2012—06—18}修回日期:2012—10—22

基金项目:国家星火计划资助项且(2011GA690190);江苏省属高校自然科学重大基础研究资助项目(11KJA460001)通讯地址:223003江苏省淮安市大学城淮阴工学院计算机工程学院

Address:FacultyofComputerEngineering,HuaiyinInstituteofTechnology,Huai’an

223003,Jiangsu,P,R.China

李翔等:Adahoost算法改进BP神经网络预测研究针对以上问题,提出了很多BP网络改进方

法。文献[2,3]提出通过采用附加动量法和变学习

率改进BP网络。附加动量法有助于使网络从误差曲面的局部极小值中跳出,但对于绝大多数实际应用问题,该方法训练速度仍然较慢。变学习率方法根据误差变化自适应调整,使权系数调整向误差

减少的方向变化,但该方法仍然存在权值修正量较

小的问题,导致学习率降低。文献[4,5]提出使用粒子群算法优化BP网络,使网络训练收敛到全局的最优,已解决了BP算法易陷入局部极小值的问题,但该算法只能有限提高原有BP神经网络的预测精度,并不能把预测误差较大的BP神经网络优化为能够准确预测的BP网络,且对样本数量少、样本分布不均匀而造成预测误差大的问题,优化后

的网络预测能力一般得不到明显提高。文献[61提

出将Adaboost算法应用到BP网络,但选用的数据记录仅有11条,预测结果可信度不足。

本文针对上述问题,提出BP神经网络结合Adaboost算法组成的强预测器的方法,并用UCI

数据库中的数据集进行仿真实验,证明本文所提方

法的有效性。

BP神经网络与Adaboost算法

2.1

BP神经网络原理

BP神经网络是一种有监督学习多层前馈神经

网络,其主要特点是信号前向传递、误差反向传播[7]。在信号前向传递过程中,输入信号从输入层

进入,经过隐含层处理,到达输出层。每一层的神经元状态只影响下一层的神经元状态。判断输出层的结果是否为期望输出,如果不是,则转入反向传播,然后根据预测误差调整网络权值和阈值,从而使BP神经网络预测输出不断逼近期望输出[8],BP神经网络的拓扑结构如图1所示。

输人层

患舍层

输出层

Figure1

Topological

structure

ofBPneuralnetwork

图1BP神经网络拓扑结构图

97

图1中,zl,z:,…,z。是BP神经网络的输入值,姐。…,Y。是BP神经网络的预测值,∞a和∞业为BP神经网络权值。

2.2

Adaboost算法原理

Adaboost是一种迭代算法,通过对弱学习算

法的加强而得到强学习算法,即通过一个包含关键特征的弱分类器集合,构建出具有理想分类能力的强分类器口]。Adaboost算法的优点在于它使用加权后选取的训练数据代替随机选取的训练样本,将弱分类器联合起来,使用加权的投票机制代替平均投票机制[1

0。。

2.3基于Adaboost算法的BP神经网络预测模型

本文通过对BP神经网络选取不同参数来构造多类BP弱预测器,然后使用Adaboost算法将得到的多个弱预测器组成新的强预测器。

BP神经网络在Matlab中的构造函数为:

net

newff(P,T,S,TF,BTF,BLF,PF,IPF,

OPF,DDF),其中,P为输人数据矩阵,T为输出

数据矩阵,S为隐含层节点数,”为节点传递函

数,BTF为训练函数,BLF为网络学习函数,PF为性能分析函数,IPF为输人处理函数,oPF为输

出处理函数,DDF为验证数据划分函数。一般通

过设置S、”、BTF、BLF几个参数来改变BP神

经网络性能,可选择值如表1所示。

Table1

Fuction

paramete隋ofBP

ne删network

裹1

BP神经圈络函数参敛

参数含义

可选参散及Maflab实瑷函数

s<n一1(^为输人层节点数)

。融舍层s</石再■万+n(n为输入层节点数,m为输出

节点数层节点数.n为o~lo的常数)

S—Ibn(n为输入层节点数)

仃薹言蠖黧兰№

硬限幅传递函数hardlim

对数S型传递函数Iogsig

梯度下降BP算法弼练函数traingd

动量反传的梯度下降BP算法训练函数traingdm

。,。训练动态自适应学习率的BP算法训练函数traingda函数

动量反传和动态自适应学习率的梯度下降BP算法调练函数traiagdx

Levenberg_Marquardt的BP算法训练函数trainlm

…网络学BP学习规则函数learngd

~‘习函数带动量项的BP学习规则函数learngdrrl

通过newff函数及S、TF、BTF、BLF等参数

的调整,可以构造出不同类型的BP弱预测器。

本文提出的基于Adaboost算法的BP神经网

98

Computer

Engineering&Science计算机工程与科学2013,35(8)

络预测算法流程如图2所示。

[捧磁据选择)HB嘲预测器供型1)卜

叫BP弱预测器供型2)卜Adaboos!

‰㈤=半×{宇,妒l副

踟㈤一室峰塑型

圣(bg击)

实验与结果分析7、。一。一,。’一…

3?1实验数据

l样本数据预处理卜_叫船弱预测器供型3)卜.

L叫BP弱预测器供型帕卜

Figure2

算法迭

代运算

2Adaboost算法的BP神经网络预测算法流程图3基于甜BP基于算法详细步骤如下:

步骤1样本数据选择及网络初始化。令迭

neu銎法ne的twork神wi经th黼二法流程图

,‘J

Predictionalgorithmflowchart

代次数t一1时,权值分布ln(i)=÷l,i=1,2,

…,咒,其中九为训练集样本的数量,令初始误差率£。一o。根据样本输入输出维数设计网络结构,并对BP网络权值和阈值咖(o<≯<1)进行初始化设置。

步骤2样本数据预处理。步骤3

BP弱预测器预测。通过选取不同

UCI数据库是美国加州大学欧文分校(Uni—

versityofCalifornia

Irvine)提供的用于机器学习

的著名数据库,该库目前共有220个数据集,并且其数目还在不断增加。本实验选择UCI数据库中

的Computer

Hardware、Concrete

Compressive

Strength两个数据集进行回归预测,数据集下载地址为http://archive.ics.uci.edu/ml/datasets/。

Computer

Hardware数据集包含209条计算

BP神经网络函数构造不同类别BP弱预测器。对

机CUP性能数据,该数据集共有10个属性,分别为VendorName(P1)、ModelName(P2)、MYCT(P3)、MMIN(P。)、MMAX(P5)、CACH(P6)、

CHMIN(P7)、CHMAX(P。)、PRP(Z0)、ERP

于£=1,…,丁进行迭代,在训练第t个弱预测器

时,使用BP神经网络对训练数据进行训练,建立回归模型g。(z)一y。

计算g。(z)的误差率e。:

(Z,。),其中PRP为硬件厂商公布的性能,ERP为预测性能。从中随机选取169组数据作为训练数据,40组数据作为测试数据,选取P3~P。作为训练属性,选取磊作为实际输出,Z。。供参考。

Computer

e。一>:D。(i)

其中i满足I垒鱼生二苎I>≯。

Yi

步骤4测试数据权重调整。令B=e;,更新

权重如下,式中Bf为标准化因子:

Table2

Hardware数据集原始数据如表2所

示。

ComputerhardwaredatasetComputerHardware数据集

Pt

P7

Ps

z9

表2

释号PL

adviser

P2

P3

P‘Ps

32/60470v/7470v/7a470v/7b470v/7c

vs-100

125256600025616128198

2amdahl2980003200032832269

3amdahl2980003200032832220

amdahl29800032000328化驼;

amdahl29

8000

16000

328

208

;i

480

512

8000

32

wang

盯帖

209

wang

vs-904801000400000

李翔等:Adaboost算法改进BP神经网络预测研究

ConcreteCompressive

Strength数据集包含1

030条混凝土抗压强度数据,该数据集共有9个属性Cement(P1)、Blast

FurnaceSlag(P2)、FlyAsh

(P3)、Water(P4)、Superplasticizer(P5)、Coarse

Aggregate(P6)、FineAggregate(P7)、Age(P8)、

450050400厂—P

f}

99

I匕=型望型1

350

掣300

250噻200

150

Concrete(Z9),其中,Concrete(Z9)为输出的混凝土抗压强度。从中随机选取1000组数据作为训练数据,30组数据作为测试数据。Concrete

pressive

Com—

10050

Strength数据集原始数据如表3所示。

10

152025303540

3.2实验及结果分析

使用10个BP神经网络构成弱预测器序列,

Figure3

Computer

Hardware预测样本

error

Absolutevalueofcomputerhardwarprediction

Computer

这lo个BP神经网络的S、玎、BTF、BLF参数选

择如表4所示。

Table

图3

帖∞

Hardware预测误差绝对值图

ParameterselectionofBPweakpredictor

表4BP弱预测器参数选择

七’

》(

如巧加

博m,00

渊媸

51510

ConcreteCompressive

20

25

30

Strength预测样本

Figure4

Absolutevalueof

error

Concretecompressivestrengthprediction

图4ConcreteCompressiveStrength预测误差绝对值图

Computer

sive

ComputerHardware和ConcreteCompres—

sive

Hardware和ConcreteCompres—

Strength数据集的网络训练过程中误差均方

下降曲线分别如图5和图6所示。

Computersive

Strength数据集的强预测器预测误差绝对值Hardware和ConcreteCompres—

和弱预测器预测平均误差绝对值图分别如图3和图4所示。

Table3

ConcreteConcrete

Strength数据集的网络训练回归状态图分别

如图7和图8所示。

compressivestrengthdataset

表3

序号

Pl

P2

P3

CompressiveStrength数据集

P5

P6

P7

P8

P4Z9

79.99

54000

1622.5104067628

2540

O1622.510556762861.89

332.5

142.5O

228093259427040.27

4332.5142.5O228093259436541.05

5198.6132.4O1920978.4825.536044.30

1029159.1186.7O175.6

11.3989.6788.92832.77

1030

260.9

100.5

78.3200.68.6864.5761.52832.40

100

Computer

Engineering&Science计算机工程与科学2013,,35(8)

Training:R--O

0.5

93251

Validation:R=O92141

o。

一4-

暨0

宁±‰

昌冬

0南

吨C

¨

帮一0.5圭

兰C

言一1

TargetTest:R=0.96907

All:R=092884

兰o

024

lOEpoehs

Figure5

Decline

curve

ofComputerHardware

图5

Computer

Hardware误差均方下降曲线

Figure8

Regression

Concrete

state

ofConcreteCompressiveStrength

图8

CompressiveStrength回归状态图Contrastbetweenmean

predictionresults

Table7

error

absolutevalueof

表7预测结果平均误差绝对值对比

预测模型co平m均pu误ter差H绝ar对dw值are

c帆;{i!;蕊8iw

2.294.78

20Epochs

AdaboostBP33.89

Figure6

Decline

curve

ofConcrete

BP68.36

CompressiveStrengthMSE

图6

ConcreteCompressiveStrength误差均方下降曲线

Training:R--0.98424

使用相关系数R来表示拟合的好坏,R的取值范围为[o1],R越接近1,表明方程的变量对Y的解释能力越强,这个模型对数据拟合得也较好。

从图3可以看出,ComputerHardware数据集预测误差值中,强预测器预测误差明显小于弱预测器预测误差,强预测器整体预测误差较小,预测结果较好。从图5可以看出,ComputerHardware数据集训练的误差均方下降曲线收敛速度较快,在第

g宁

詈一0

毒一

罨。

±鲒

Test:R:o91412

All:R=0.96907

四步时达到最好的验证集效果为0.0055,误差曲线开始趋于平缓,误差值基本不再发生变化,效果较好。从图7可以看出,强预测器预测的训练集

05

喜}g

有一0

05

R一0.984R一0.914

2,验证集R一0.9863,测试集1,总体R一0.9690,回归预测结果很好。

Compressive

芎e‘

-0.5Target

从图4可以看出,Concrete

Strength数据集预测误差值中,强预测器预测误差

state

Figure7

Regression

ofComputerHardware明显小于弱预测器预测误差,强预测器整体预测误差较小,预测结果较好。从图6可以看出,Con-

crete

图7ComputerHardware回归状态图

Computer

Hardware数据集测预误差如表5

Compressive

Compressive

Strength数据集训练的误差均

所示,Concrete表7所示。

Strength数据集预测

方下降曲线在第15步时达到最好的验证集效果为

0.002

误差如表6所示,预测结果平均误差绝对值对比如

1,误差曲线开始趋于平缓,误差值基本不再

发生变化,效果较好。从图8可以看出,强预测器

 

 

下载地址:73Adaboost算法改进BP神经网络预测研究_图文.Doc

  【】

最新搜索

Adaboost算法改进BP神经网络预测研究_图文

幼儿园师带徒协议书

小学汉语拼音字母表卡片(四线格版)03

52替魏延辩诬

962011年时事政治(国内外)[1]

销售精英激励与实战技能提升15

18拳击比赛的技巧

四五六单元上册教案语文71

71二年级上竖式计算

100年后45


  本文关键词:Adaboost算法改进BP神经网络预测研究,由笔耕文化传播整理发布。



本文编号:176400

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/rengongzhinen/176400.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户c31c1***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com