基于果蝇——广义回归神经网络优化的WSN节点定位算法
发布时间:2019-10-13 20:35
【摘要】:针对无线传感器网络(WSN)基于测距的定位算法中,利用节点坐标计算方法获得的节点坐标位置存在较大误差的问题,提出一种无需进行坐标计算的果蝇—广义回归神经网络(FOA-GRNN)优化的WSN节点定位算法.该算法利用广义回归神经网络(GRNN)较快的学习速度和较强的逼近能力建立WSN节点定位模型,通过果蝇优化算法(FOA)调整广义回归神经网络的平滑参数,降低调整平滑参数时人为因素的影响,由神经网络直接输出未知节点坐标.仿真实验表明,通过果蝇算法优化的FOA-GRNN模型的节点定位精度比未经优化的GRNN模型的节点定位精度高.同时,比较了FOA-GRNN模型与BP神经网络模型、虚拟节点BP网络模型(VNBP)在WSN节点定位中效果,表明FOA-GRNN模型在WSN节点定位精确性方面具有明显优势.
【图文】:
迪直淞康娜鄘盅坝?[9-10].FOA算法自产生以来就受到相关领域的广泛关注,目前已被广泛应用于交通事件、原油含水率[11]、企业经营绩效[12]、光纤传感系统[13]以及卫星预测[14]等优化问题.因此,本文提出一种基于果蝇优化算法与广义回归神经网络有机结合的果蝇-广义回归神经网络优化(FOA-GRNN)的WSN节点定位算法,利用FOA算法的随机搜索特性和快速收敛性,优化GRNN网络的平滑参数因子σ的选择,降低算法复杂度,提高GRNN回归预测效果,准确定位WSN未知节点坐标位置.1GRNN算法与FOA算法图1GRNN的原理图Fig.1SchematicdiagramofGRNN1.1广义回归神经网络模型如图1所示,GRNN由输入层、模式层、求和层、输出层构成.输入层的神经元数目与学习样本中输入向量的维数n相等,每个神经元都是一个简单的分布单元,这些神经元直接将输入变量传递到模式层中.模式层的神经元数目即为学习样本的数目n,每个神经元分别对应一个学习样本,模式层中第i个神经元的传递函数为:Pi=exp-(X-Xi)T(X-Xi)2σ2[],i=1,2,…,n.(1)式中,Pi是各模式层的神经元输出,σ为平滑因子,,Xi为第i个神经元对应的学习样本.求和层中包含了分母求和单元与分子求和单元.分母求和单元对所有模式层神经元的输出进行算术求和,模式层中各个神经元与该神经元的连接权值为1,传递函数为:SD=∑ni=1Pi.(2)分子求和单元是对神经元输出加权求和,其连接权值是模式层中神经元的输出yi值,其传递函数为:SN=∑ni=1yiPi.(3)输出层^Y是由求和层中的分子求和单元、分母求和单元的输出相除得到,即:^Y=SN/SD.(4)—32?
陈t煟
本文编号:2548877
【图文】:
迪直淞康娜鄘盅坝?[9-10].FOA算法自产生以来就受到相关领域的广泛关注,目前已被广泛应用于交通事件、原油含水率[11]、企业经营绩效[12]、光纤传感系统[13]以及卫星预测[14]等优化问题.因此,本文提出一种基于果蝇优化算法与广义回归神经网络有机结合的果蝇-广义回归神经网络优化(FOA-GRNN)的WSN节点定位算法,利用FOA算法的随机搜索特性和快速收敛性,优化GRNN网络的平滑参数因子σ的选择,降低算法复杂度,提高GRNN回归预测效果,准确定位WSN未知节点坐标位置.1GRNN算法与FOA算法图1GRNN的原理图Fig.1SchematicdiagramofGRNN1.1广义回归神经网络模型如图1所示,GRNN由输入层、模式层、求和层、输出层构成.输入层的神经元数目与学习样本中输入向量的维数n相等,每个神经元都是一个简单的分布单元,这些神经元直接将输入变量传递到模式层中.模式层的神经元数目即为学习样本的数目n,每个神经元分别对应一个学习样本,模式层中第i个神经元的传递函数为:Pi=exp-(X-Xi)T(X-Xi)2σ2[],i=1,2,…,n.(1)式中,Pi是各模式层的神经元输出,σ为平滑因子,,Xi为第i个神经元对应的学习样本.求和层中包含了分母求和单元与分子求和单元.分母求和单元对所有模式层神经元的输出进行算术求和,模式层中各个神经元与该神经元的连接权值为1,传递函数为:SD=∑ni=1Pi.(2)分子求和单元是对神经元输出加权求和,其连接权值是模式层中神经元的输出yi值,其传递函数为:SN=∑ni=1yiPi.(3)输出层^Y是由求和层中的分子求和单元、分母求和单元的输出相除得到,即:^Y=SN/SD.(4)—32?
陈t煟
本文编号:2548877
本文链接:https://www.wllwen.com/kejilunwen/xinxigongchenglunwen/2548877.html