当前位置:主页 > 科技论文 > 自动化论文 >

基于果蝇算法的无线传感器网络路由算法研究

发布时间:2020-04-05 05:26
【摘要】:作为信息技术三大支柱之一,无线传感器网络(Wireless Sensor Networks,WSNs)由于在部署成本、网络功耗、用途多样性上具有无可比拟的优势,因而在环境检测、医疗保健、军事监控、工业数据采样等诸多领域获得了广泛应用。5G标准的提出以及工业4.0时代的到来更是给无线传感器网络的发展带来了新的机遇。但是由于传感器节点本身自带电源容量有限,而且恶劣的部署环境会给传感器节点的能量补给工作带来巨大的难度,因此能量受限问题成为制约其进一步发展的主要因素,如何提高WSNs的能量利用效率成为当前科学界、工业界亟待解决的问题。在此背景下,本文围绕WSNs网络路由算法展开研究,通过对基础果蝇算法的改进以及对基于果蝇算法的无线传感器网络路由优化算法的研究,以实现WSNs低能耗、高效率的数据传输目标,具体内容如下:(1)基础果蝇算法改进。首先研究了基础果蝇算法参数对于最优路径的影响,并针对算法本身存在的易于陷入局部最优、后期收敛速度缓慢、固定步长所导致的搜索不准确、搜索稳定性弱等问题提出了一种基于Logistic混沌理论的递减步长的果蝇优化算法。仿真结果表明,在求解工程设计优化问题上,相比于标准果蝇算法,本文提出的改进型果蝇算法寻优精度更高、更稳定。(2)基于果蝇算法的无线传感器路由算法优化。首先,针对WSNs传统路由协议中数据报文传输路径过长以及节点负载均衡的问题,提出了一种综合考虑能量、距离、搜索角度的无线传感器路由优化算法。该算法将上文基于Logistic混沌理论的递减步长的果蝇优化算法与传统路由协议相融合,从而在整个搜索过程中综合考虑节点位置、剩余能量、传输距离以及传输角度等因素,同时引入了调控因子,以进一步保证节点的负载均衡。然后,针对传统路由协议容易出现的“热点问题”,即“路由空洞”和“热点路径”问题,提出了规避路由空洞策略,引入了节点规避机制以及向前飞行可行域概念以解决处于“热点路径”节点的能量过早枯竭问题。仿真实验表明相对于传统平面路由协议算法,本文提出的无线传感器路由协议优化算法延长了无线传感器网络的生命周期,实现了网络节点间的负载均衡,解决了传统路由协议能量空洞问题,可以满足实际工程应用中对路由协议的要求并具有良好的通用性。
【图文】:

结构图,传感器网络,结构图


[20]。图1.1 传感器网络结构图作为传感器节点最基本的功能单元,普通节点由五个功能模块组成,具体如图 1.2所示。其中处理模块是核心模块,负责对信息的路由转发和调度,,数据融合和安全传输,通常无线路由算法的优化在此模块进行研究[21]。在整个网络结构中,能量模块是无线传感器网络的基础模块。整个无线传感器的节点都由自带的电源提供能量,受节

无线传感器,节点结构


[23]。图1.2 无线传感器节点结构图1.1.2 无线传感器网络能耗特点WSNs 通信路由协议分为四层,依次为物理层、链路层、网络层、传输应用层[24]。网络中能量损耗集中体现在链路层、网络层、传输层。链路层主要负责将数据包形成帧,对帧进行检测同时控制网络差错。MAC 协议帧头不包含有效的数据信息时,数据传输过程存在能量消耗。同时通信路径中存在信道共享、数据包竞争、因路径冲突需暴露和隐藏等终端问题,此过程中造成网络中较大一部分能量损耗[25]。网络层主要负责对数据报文的路由转发,基于无线传感器网络结构特性,普通节点无法与网关节点直接通信,源节点需要将数据报文通过中间节点的多跳路由转发到汇聚节点。整个网络能量的消耗主要集中在节点转发协调过程中,路由协议算法的节能优化主要考虑此网络层的能耗。传输层主要控制对数据的传输
【学位授予单位】:西安电子科技大学
【学位级别】:硕士
【学位授予年份】:2019
【分类号】:TP212.9;TN929.5;TP18

【相似文献】

相关期刊论文 前10条

1 欧阳普仁,杨叔子;一种改进的Marple算法[J];南京理工大学学报(自然科学版);1988年01期

2 黄小蓓;隆永红;;分布式数据库管理系统中的N&发控制——算法及其性能分析[J];计算技术与自动化;1988年02期

3 冯成进;;0—1规划新算法的改进[J];曲阜师范大学学报(自然科学版);1988年02期

4 曾秀;魏振华;;猴群算法及其改进综述[J];电脑知识与技术;2017年32期

5 许灿英;;算法合谋反竞争问题初探[J];合肥工业大学学报(社会科学版);2019年02期

6 段艳明;肖辉辉;林芳;;新授粉方式的花授粉算法[J];计算机工程与应用;2018年23期

7 肖海军;王芬艳;卢常景;曹颖;;一种有效的多峰优化鸟群算法[J];中南民族大学学报(自然科学版);2018年04期

8 覃远年;梁仲华;;蚁群算法研究与应用的新进展[J];计算机工程与科学;2019年01期

9 肖辉辉;段艳明;林芳;;新搜索策略的花授粉算法[J];电子测量与仪器学报;2019年07期

10 梁昔明;高超;龙文;;基于速度越界处理与高斯扰动的改进蝙蝠算法[J];数学的实践与认识;2019年19期

相关会议论文 前10条

1 苗强;刘晓琳;王仲奇;;随机球重叠判断算法改进研究工作进展[A];中国原子能科学研究院年报 2013[C];2014年

2 殷凡;王海斌;李超;;改进蝙蝠算法在DOA估计中的应用[A];2019年全国声学大会论文集[C];2019年

3 李超;余昭平;;基于矩阵的Apriori算法改进研究[A];第二届全国信息检索与内容安全学术会议(NCIRCS-2005)论文集[C];2005年

4 王蓬;宋明玉;张林芳;王新远;;广义自适应相干累积算法改进及其在线谱增强中的应用[A];中国声学学会2007年青年学术会议论文集(上)[C];2007年

5 孙迪峰;方厚林;梁旭斌;赵天青;张亮永;;宽带MUSIC算法中同步干扰研究[A];2019年全国声学大会论文集[C];2019年

6 郝红星;吴玲达;宋汉辰;;一种残损图像修补算法改进与实现[A];第18届全国多媒体学术会议(NCMT2009)、第5届全国人机交互学术会议(CHCI2009)、第5届全国普适计算学术会议(PCC2009)论文集[C];2009年

7 解迎刚;王志良;郑珊山;;基于LANDMARC及其算法改进的RFID室内定位研究[A];第二十九届中国控制会议论文集[C];2010年

8 王笃侠;冷晟;周燕飞;;单件小批生产模式下的MRP算法改进[A];全国先进制造技术高层论坛暨第七届制造业自动化与信息化技术研讨会论文集[C];2008年

9 邹锦峰;;水面仿真研究及算法改进[A];全国首届数字(虚拟)科技馆技术与应用学术研讨会论文集[C];2007年

10 林关成;李亚安;;一种支持向量机训练集选取算法改进[A];2009’中国西部地区声学学术交流会论文集[C];2009年

相关重要报纸文章 前2条

1 记者 宛霞;风云卫星云导风算法改进[N];中国气象报;2018年

2 记者 陈姝;深企为大桥定制人脸识别方案[N];深圳商报;2018年

相关博士学位论文 前10条

1 周凌云;几种典型群智能算法及其更新机制研究[D];武汉大学;2018年

2 张代雨;多学科优化算法及其在水下航行器中的应用[D];西北工业大学;2017年

3 钟林峰;复杂网络中关键节点的挖掘算法研究[D];电子科技大学;2018年

4 邱实;多光谱卫星遥感影像云及云阴影精准检测算法研究[D];电子科技大学;2018年

5 孙宁;人工免疫优化算法及其应用研究[D];哈尔滨工业大学;2006年

6 陆楠;关联规则的挖掘及其算法的研究[D];吉林大学;2007年

7 胡铟;基于单目视觉的运动目标检测与跟踪算法研究[D];南京理工大学;2008年

8 王珏;生物地理学优化算法的研究及应用[D];哈尔滨工程大学;2013年

9 黄松;面向多应用场景的粒子群优化算法研究[D];江南大学;2017年

10 安琦;信号侦收中的识别与分类理论与算法研究[D];电子科技大学;2017年

相关硕士学位论文 前10条

1 谢辉;基于Spark的FP-Growth算法的研究[D];南昌大学;2019年

2 倪楚琦;关于大维数据的聚类方法研究[D];哈尔滨工业大学;2019年

3 黄文成;一种基于膜计算的人工蜂群算法及其应用[D];西华大学;2019年

4 徐涛;基于数据表示方法的鉴别字典学习算法的研究及应用[D];西华大学;2019年

5 匡振曦;高维数据中KNN分类算法的优化研究[D];广东工业大学;2019年

6 唐嘉诚;多约束条件下无人机协同配送算法研究[D];沈阳航空航天大学;2019年

7 杨琴;基于压缩感知的DOA估计算法研究[D];西安电子科技大学;2019年

8 谢子卓;基于大数据的微博转发预测及热点发现算法的研究[D];西安电子科技大学;2019年

9 袁丹丹;基于节点重要性的社区发现算法研究与应用[D];西安电子科技大学;2019年

10 沈鑫;基于领导人选举机制共识算法的联盟链性能改进研究[D];西安电子科技大学;2019年



本文编号:2614607

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2614607.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户d9c4c***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com