提升复杂非视距环境下RSS定位估计精度的研究

发布时间:2017-03-19 09:06

  本文关键词:提升复杂非视距环境下RSS定位估计精度的研究,,由笔耕文化传播整理发布。


【摘要】:在实际定位应用中,非视距(None-Line-Of-Sight,NLOS)偏差几乎无处不在,它的存在会严重影响定位估计精度的提高。不管定位系统是基于到达时间(Time Of Arrival,TOA)、到达角度(Angle Of Arrival,AOA),还是接收信号强度(Received Signal Strength,RSS)等测量方式,定位估计都可能会受到NLOS偏差的困扰。虽然基于RSS测量方式的定位估计误差一般只能达到米级,但由于获取RSS的便利性和几乎零硬件成本的优势,还是使得RSS定位技术在相当多的对精度要求不太高的应用中成为首选,比如停车场、客运站内的车辆定位等等。因此,研究如何提高复杂NLOS环境下RSS定位估计的精度是具有实际需求和重要意义的。在复杂NLOS环境下,无线电信号容易产生波动,RSS测量数据的统计特性变得复杂多变,这些原因都使NLOS偏差识别和消除问题变得非常具有挑战性。在复杂NLOS环境下,NLOS偏差往往是动态变化的,因此利用离线测试样本进行机器学习的定位估计方法往往无法达到预想的定位精度,同时还要付出庞大的离线测试工作量。相反,基于无线信号对数衰减传播模型的定位估计方法不需要大量的离线测试样本,极大地减少了离线工作量,更便于定位网络的快速部署和实施。本文主要研究的是基于对数衰减传播模型的定位估计方法,在仅知道RSS测量数据和固定节点坐标的条件下,如何尽可能地提高复杂NLOS环境下的RSS定位估计精度。首先,探讨复杂NLOS环境下NLOS偏差的近似统计分布。在复杂NLOS环境中,NLOS偏差的统计分布一般是完全未知的,而且往往是动态变化的,一般很难建立准确的NLOS偏差统计分布模型,即使能通过核函数密度估计等方法逼近离线测量数据的统计分布,由于环境的动态变化,逼近模型参数也无法适用于在线测量数据,因此只能选择传统统计分布来近似。这里把NLOS偏差分别建模为高斯分布、均匀分布和指数分布,并建立相应的最大似然定位估计器,接着利用RSS测量数据进行定位估计实验。实验结果表明,基于高斯分布的定位估计器性能表现优于其他两种统计分布。其次,尽量减少不良几何精度因子(Geometric Dilution Of Precision,GDOP)对定位估计的影响。同样的定位估计算法在具有良好GDOP的固定节点网络中能获得更好的定位估计精度,因此获取一个好的固定节点布局是很重要的。为此,这里把固定节点的部署问题建模为一个二次规划(Quadratic Programming,QP)优化问题,实现了在允许部署节点的候选位置中选取满足最优布局条件的位置来部署固定节点的目的。由于QP最优化问题可以被快速有效地求解,因此使用该方法可以快速有效地获得具有良好GDOP的固定节点几何布局,从而为达到更好的定位估计精度奠定了基础。接着,研究具体的定位估计算法。在复杂NLOS环境中,使用基于传播模型的定位估计器会遇到一个困境。一方面,传播模型的衰减因子取值往往是未知且随环境变化的,但另一方面,基于传播模型的定位估计器却需要先知道衰减因子的取值才能进行定位估计。虽然可以把衰减因子作为未知量,与目标节点坐标一起联合估计,但是未知量的增加会导致估计器性能下降,从而使得定位估计精度下降。因此,这里首先利用距离向量和测量向量之间的相关系数来实现目标节点的初始位置估计,然后使用该初始位置来计算衰减因子的近似值,最后通过最大似然估计器获得最终定位估计,从而避免了未知变量增加带来的估计精度下降问题。为了进一步提升定位估计精度,根据残差大小与定位估计误差之间的统计相关关系,提出了使用负指数函数把残差大小转换为固定节点权重的方法。节点权重越大,则意味着该节点的NLOS偏差对定位估计误差的影响越小,节点权重越小,则意味着该节点的NLOS偏差对定位估计误差的影响越大,因此通过为节点加入权重可以有效地降低NLOS偏差对最终定位估计误差的影响,提高定位估计精度。但是,在对NLOS偏差没有任何先验知识,且仅已知RSS测量数据和固定节点坐标的条件下,要彻底消除NLOS偏差的影响是非常困难的。最后,针对在Zigbee定位网络中发现的接收信号衰减特性,把对数衰减模型的衰减因子修改为随距离变化的变量,基于改进对数衰减模型构建的定位估计器能提高定位估计的精度,特别是当目标节点位置比较靠近固定节点的时候。
【关键词】:定位估计 接收信号强度 非视距偏差 最优布局 对数衰减模型
【学位授予单位】:华南理工大学
【学位级别】:博士
【学位授予年份】:2015
【分类号】:TN929.5
【目录】:
  • 摘要5-7
  • Abstract7-12
  • 第一章 绪论12-22
  • 1.1 研究背景和意义12-14
  • 1.2 研究现状14-20
  • 1.2.1. 定位估计器15-16
  • 1.2.2. 估计器初始点的选择16-17
  • 1.2.3. 传播模型参数的估计17-18
  • 1.2.4. 固定节点的布局18
  • 1.2.5. 非视距误差18-20
  • 1.3 论文的主要工作及组织结构20-22
  • 第二章 定位估计基础及NLOS偏差22-44
  • 2.1 引言22
  • 2.2 定位估计器22-27
  • 2.2.1. 线性最小二乘定位估计器22-24
  • 2.2.2. 最大似然定位估计器24-27
  • 2.3 定位性能评价27-31
  • 2.3.1. 最大似然估计器的CRLB28-30
  • 2.3.2. 线性最小二乘估计器的CRLB30-31
  • 2.4 NLOS偏差31-43
  • 2.4.1. NLOS偏差服从高斯分布36-37
  • 2.4.2. NLOS偏差服从均匀分布37-40
  • 2.4.3. NLOS偏差服从指数分布40-42
  • 2.4.4. 实验结果42-43
  • 2.5 本章小结43-44
  • 第三章 最优部署位置选择算法44-61
  • 3.1 引言44-45
  • 3.2 最佳固定节点数45-54
  • 3.2.1 至少所需节点数(下界)47-49
  • 3.2.2 至多所需节点数(上界)49-54
  • 3.3 固定节点的最优布局准则54-55
  • 3.4 最优部署选取算法55-58
  • 3.5 仿真实验结果58-60
  • 3.6 本章小结60-61
  • 第四章 利用相关和网格细分的定位估计61-80
  • 4.1 引言61-62
  • 4.2 距离和RSS测量之间的相关特性62-64
  • 4.3 改进的网格迭代细分技术64-66
  • 4.4 NLOS偏差消除方法66-68
  • 4.5 定位算法框架及复杂度分析68-70
  • 4.6 定位估计的性能验证70-79
  • 4.6.1 仿真实验分析70-74
  • 4.6.2 实际定位实验74-79
  • 4.7 本章小结79-80
  • 第五章 选择性残差加权定位估计80-95
  • 5.1 引言80
  • 5.2 高概率区域和初始位置估计80-84
  • 5.2.1 高概率区域81-82
  • 5.2.2 初始位置估计82-84
  • 5.3 选择性残差加权84-88
  • 5.3.1 残差计算与分析84-87
  • 5.3.2 权重计算87-88
  • 5.4 定位估计算法及其复杂度88-91
  • 5.4.1 NLOS偏差消除88-89
  • 5.4.2 算法框架89-90
  • 5.4.3 算法复杂度90-91
  • 5.5 实验验证与分析91-94
  • 5.6 本章小结94-95
  • 第六章 基于改进对数衰减模型的定位估计95-104
  • 6.1 引言95
  • 6.2 改进对数衰减模型95-98
  • 6.2.1 衰落因子的拟合函数95-96
  • 6.2.2 改进对数衰减模型噪声的高斯分布特性96-98
  • 6.3 改进模型的ML估计器及其CRLB98-99
  • 6.3.1 基于改进对数衰减模型的 ML 估计器98
  • 6.3.2 Cramer-Rao下界98-99
  • 6.4 实验验证99-103
  • 6.4.1 一般模型和改进模型的定位估计结果比较100-102
  • 6.4.2 改进对数衰减模型定位估计算法的环境适应性102-103
  • 6.5 本章小结103-104
  • 总结与展望104-106
  • 参考文献106-116
  • 攻读博士学位期间取得的研究成果116-118
  • 致谢118-119
  • 附件119

【相似文献】

中国期刊全文数据库 前10条

1 ;Antenna Array Structures Effect on Water-Filling Capacity of Indoor NLOS MIMO Channel[J];The Journal of China Universities of Posts and Telecommunications;2005年03期

2 罗咏R

本文编号:255826


资料下载
论文发表

本文链接:https://www.wllwen.com/shoufeilunwen/xxkjbs/255826.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户7e339***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com