当前位置:主页 > 科技论文 > 网络通信论文 >

基于声矢量传感器的欠定DOA估计研究

发布时间:2017-09-01 16:22

  本文关键词:基于声矢量传感器的欠定DOA估计研究


  更多相关文章: 阵列信号处理 欠定波达方向估计 声矢量传感器 张量


【摘要】:波达方向(Direction of Arrival,DOA)超分辨率估计一直是阵列信号处理中研究的热点问题,其中,欠定DOA估计有明确的应用背景和广泛的实际需求,所以成为近年来研究的热点和难点。在传统DOA估计领域,阵列能够分辨的目标数量受阵元个数的限制,当目标数量超过阵元个数时,算法的性能会严重下降。欠定DOA估计的目标是,在目标个数大于阵元个数的情况下,实现超分辨的DOA估计。声矢量传感器由三个相互垂直的声速传感器和一个声压传感器组成,空间共点的声矢量传感器可以在声场里以一个共点空间同时测量声场中的声压和振速信息。这种空间共点结构缩小了传感器的孔径,降低了传感器的分辨率,增加了硬件成本,但带来的好处是降低了信号处理的难度。但是从工程的角度出发,我们更愿意通过增加信号处理的难度来换取较低的硬件成本和较高的估计精度,而空间非共点的声矢量传感器正好满足了我们这个需求。近年来,一维欠定DOA估计算法层出不穷,但从本质来说,这些算法的核心思想还是通过构造虚拟阵列,扩大阵列孔径,提高自由度。一维欠定DOA估计算法实现条件苛刻、实现方法较少,加上二维欠定DOA估计算法复杂度较高等原因,导致许多一维欠定DOA估计算法很难直接应用到二维欠定DOA估计算法里。另外,目前很少算法模型是直接针对二维欠定DOA估计的,所以二维欠定DOA估计至今仍是学术上急需解决的难题。为了克服这个难题,本人决定把工作重点放在二维的欠定DOA估计上。通过对目前比较流型的二维欠定DOA估计算法的研究,本人给出一种基于张量模型的声矢量传感器阵列欠定DOA估计的改进算法,在相同条件下,能实现比原算法更高的估计精度,在信噪比较低的情况下优势尤其明显,并且没有明显增加算法的复杂度。但是由于算法本身的局限性,这种算法只能实现一维欠定DOA估计和二维超定DOA估计。为了实现真正意义上的二维欠定DOA估计,本人提出了一种基于张量模型的L型阵列二维欠定DOA估计算法,这种算法在低信噪比情况下能实现真正意义上高精度的二维欠定DOA估计。空间非共点的声矢量传感器具有较低的硬件成本和较高的估计精度等优势,基于空间非共点的声矢量传感器二维欠定DOA估计在学术上还是空白,利用空间非共点的声矢量传感器的结构优势实现二维欠定DOA估计具有重要的学术意义和实用价值。本文最后一部分主要对基于空间非共点的声矢量传感器的二维欠定DOA估计进行了一些探索性研究,解决了其中的一个关键性问题。空间非共点的声矢量传感器虽然有一系列优势,但是却引入了“模糊”问题。有学者基于“金字塔”型空间非共点的声矢量传感器结构提出了一种能有效去除“模糊”的算法,但是由于算法本身的局限性,该算法在相干信源下性能会急剧下降。另外,欠定DOA估计在利用一系列操作扩展虚拟孔径的过程中引入了相干信源,相干信源同样会导致欠定DOA估计的失败。根据以上分析可知,去相干是我们实现基于空间非共点的声矢量传感器二维欠定DOA估计需要解决的关键性问题。为了解决这个关键性问题,本人提出了一种改进算法,该算法可以在非相干信源条件下获得接近原算法的估计精度;在相干信源条件下,原算法几乎失效,但改进算法仍保持高分辨率。改进算法将为实现基于空间非共点的声矢量传感器二维欠定DOA估计打下坚实的基础。
【关键词】:阵列信号处理 欠定波达方向估计 声矢量传感器 张量
【学位授予单位】:哈尔滨工业大学
【学位级别】:硕士
【学位授予年份】:2015
【分类号】:TN911.23;TP212
【目录】:
  • 摘要4-6
  • ABSTRACT6-10
  • 第1章 绪论10-16
  • 1.1 课题背景及研究的目的和意义10-11
  • 1.2 国内外发展现状11-14
  • 1.2.1 欠定DOA估计11-13
  • 1.2.2 空间非共点的声矢量传感器二维欠定DOA估计13
  • 1.2.3 当前研究存在的问题13-14
  • 1.3 本文的主要研究内容及结构安排14-16
  • 第2章 一维欠定DOA估计16-35
  • 2.1 基于nested array的一维欠定DOA估计16-20
  • 2.1.1 nested array模型和coprime array模型16-17
  • 2.1.2 基于nested array的一维欠定DOA估计算法17-20
  • 2.2 基于半平稳信号的KR子空间一维欠定DOA估计20-23
  • 2.2.1 半平稳信号20-21
  • 2.2.2 基于半平稳信号的KR子空间一维欠定DOA估计算法21-23
  • 2.3 基于压缩感知的一维欠定DOA估计23-27
  • 2.3.1 基于在网目标的压缩感知一维欠定DOA估计23-26
  • 2.3.2 基于离网目标的压缩感知一维欠定DOA估计26-27
  • 2.4 仿真分析27-34
  • 2.5 本章小结34-35
  • 第3章 二维欠定DOA估计35-49
  • 3.1 基于声矢量传感器的二维欠定DOA估计35-37
  • 3.2 基于张量模型的声矢量传感器阵列欠定DOA估计37-40
  • 3.2.1 基于张量模型的声矢量传感器阵列欠定DOA估计算法37-40
  • 3.2.2 基于张量模型的声矢量传感器阵列欠定DOA估计的改进算法40
  • 3.3 基于张量模型的L型阵列二维欠定DOA估计40-42
  • 3.4 仿真分析42-48
  • 3.5 本章小结48-49
  • 第4章 基于空间非共点的声矢量传感器二维DOA估计49-61
  • 4.1 基于空间非共点的声矢量传感器非相干信源二维DOA估计49-53
  • 4.2 基于空间非共点的声矢量传感器相干信源二维DOA估计53-56
  • 4.3 仿真分析56-60
  • 4.4 本章小结60-61
  • 结论61-62
  • 参考文献62-66
  • 攻读硕士学位期间发表的论文及其它成果66-68
  • 致谢68

【相似文献】

中国期刊全文数据库 前10条

1 包云飞;张伟川;武飞;张立;;独立分量分析研究[J];四川理工学院学报(自然科学版);2012年03期

2 白琳;陈豪;;一种新的基于伪提取矢量的欠定盲分离方法[J];计算机科学;2010年11期

3 毕晓君;宫汝江;;基于混合聚类和网格密度的欠定盲矩阵估计[J];系统工程与电子技术;2012年03期

4 何春兰;万哲;;局部充分稀疏的欠定时盲信号源分离[J];广东工业大学学报;2008年04期

5 杨杰;俞文文;田昊;关珍贞;;基于独立分量分析的欠定盲源分离方法[J];振动与冲击;2013年07期

6 冷洪勇;郭文强;张明君;;小波域欠定盲图像混合矩阵估计研究[J];信息通信;2013年04期

7 宋英;;基于稀疏特性的欠定盲分离矩阵A的估计方法[J];机械工程与自动化;2010年06期

8 肖明;孙功宪;吕俊;;松弛稀疏性条件下的欠定盲分离[J];计算机工程;2010年12期

9 陆凤波;黄知涛;姜文利;;一种时频混叠的欠定混合通信信号盲分离算法[J];国防科技大学学报;2010年05期

10 刘琨;杜利民;王劲林;;基于时频域单源主导区的盲源欠定分离方法[J];中国科学(E辑:信息科学);2008年08期

中国重要会议论文全文数据库 前1条

1 巩俊;马晓红;;一种基于孤立点检测的欠定盲辨识方法[A];2010年通信理论与信号处理学术年会论文集[C];2010年

中国博士学位论文全文数据库 前5条

1 周俊;机械故障信号欠定源估计与盲提取方法研究[D];昆明理工大学;2015年

2 杜健;欠定盲源分离和PCMA信号盲分离技术研究[D];解放军信息工程大学;2014年

3 孙功宪;低稀疏度情形下的欠定混叠盲分离研究[D];华南理工大学;2016年

4 张烨;欠定混合信号的盲分离[D];上海大学;2009年

5 陆凤波;复杂电磁环境下的欠定盲源分离技术研究[D];国防科学技术大学;2011年

中国硕士学位论文全文数据库 前10条

1 李雅凤;基于时频稀疏性的欠定盲源语音信号分离技术研究[D];电子科技大学;2016年

2 沈英;欠定系统的牛顿折线法[D];南京师范大学;2015年

3 胡杰;基于声矢量传感器的欠定DOA估计研究[D];哈尔滨工业大学;2015年

4 杜晶晶;欠定和单通道条件下混合信号定阶技术研究[D];电子科技大学;2009年

5 徐宁;欠定半盲分离方法与应用研究[D];大连理工大学;2007年

6 冷洪勇;基于信号特征条件约束的欠定盲源分离技术研究[D];新疆大学;2013年

7 隗雪梅;基于语音稀疏性的欠定信号盲分离研究[D];中国科学技术大学;2014年

8 张鑫;欠定盲源分离技术研究[D];西安电子科技大学;2009年

9 王放;稀疏分量分析的欠定盲分离算法研究[D];湖南大学;2012年

10 李振涛;线性混合欠定盲分离算法研究[D];太原理工大学;2015年



本文编号:773130

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/wltx/773130.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户f980f***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com