当前位置:主页 > 科技论文 > 自动化论文 >

基于深度学习的压缩采样数据恢复技术的研究

发布时间:2020-12-23 09:13
  近年来,无人机和机器人等无人智能设备迎来了快速发展,其与接收站实时共享机载传感器数据成为工业界的迫切需求。然而,由于奈奎斯特(Nyquist)采样率的限制和通信信道是极其有限。因此,亟需一种新的技术突破经典的奈奎斯特采样理论,而压缩采样正符合这种技术。压缩采样技术将采样和压缩过程合二为一,极大的减少了采集信号的存储空间。接下来,利用深度学习的方法对压缩采样数据进行数据恢复。由于深度学习卷积网络模型的参数量往往一般高达数百万以上,因此,需对深度卷积网络参数进行压缩。本论文首先介绍课题的背景、压缩采样、神经网络压缩国内外研究现状以及相关的概念,然后主要研究利用深度卷积网络对压缩采样后的SAR原始数据进行恢复和对深度卷积网络参数进行压缩的问题。本文主要工作内容简述如下:1)提出了一种基于级联卷积自编码器的随机采样的数据恢复算法(Cascade Convolutional AutoEncoder+Network,CCAE+Net)。该算法以卷积自编码器为基础网络,为了让数据具有稀疏性,给编码器和解码器中间引入了软阀值。CCAE+Net网络框架采用级联连接方式,实现了重建出的SAR原始数据进行成... 

【文章来源】:深圳大学广东省

【文章页数】:59 页

【学位级别】:硕士

【图文】:

基于深度学习的压缩采样数据恢复技术的研究


传统的信号处理过程

过程图,信号采集,过程,矩阵


基于深度学习的压缩采样数据恢复技术的研究2从压缩后的信息有效地恢复出原始信号。这时,人们就会想到有没有一种方法可以将信号的采样和压缩过程一起完成,用另一句话说,是否可以用一个低维度的空间来表示原始的信号,而且根据这个低维度的空间能够精确的恢复出原始信号?如下图1-2是基于压缩采样的信号采集和重建过程。图1-2基于压缩采样的信号采集和重建过程为了解决上述问题,本文利用两种方法压缩感知(CompressedSensing,CS)和矩阵补全(MatrixCompletion,MC)对原始信号进行采集。压缩感知理论是Donoho和Candes等人在2006提出的一种全新的信号采样理论[1-5]。一经提出,立即引起了国内外的学者关注,成为信号压缩领域的研究热点之一。2007年,Gan在压缩感知理论的基础上,提出了分块压缩感知(BlockCompressedSensing,BCS)理论[6],对分辨率较高的图像进行处理。如图1-2所示,压缩感知和矩阵补全采样与传统的信号处理相比,压缩感知理论和矩阵补全技术把采样和压缩两个过程合二为一,而且可以在低于奈奎斯特定理要求的采样速率对原始信号进行采样压缩,可以把原始信号从高维空间映射到低维空间,从而最终完成对信号的压缩采样。矩阵补全技术是由压缩感知衍生而来,随着压缩感知理论的火热,矩阵补全技术也越来越受到关注。矩阵补全中元素的采样是通过其中特殊矩阵与目标矩阵的内积运算获取的,压缩感知的采样则是通过测量矩阵得到的。利用各种重建算法对压缩信号的进行恢复,能够实现把压缩的低维信号恢复到高维信号来,因此,重建算法是CS理论和MC理论重要的研究内容。传统的重建算法,一般通过迭代的方式对压缩数据进行重建,这类方式的缺点是不仅重建的速度慢,而且重建的效果也不如人意。近年来,随着深度学习快速的发展,?

结构图,神经网络,激活函数


基于深度学习的压缩采样数据恢复技术的研究11图2-1神经网络结构图2-1是基础的神经网络结构,其中圆圈代表的是神经元,从图2-1中的可以看出,一个基础的神经网络包含三部分,输入层、隐含层和输出层。输入层是接收输入的数据,隐含层是针对输入的数据进行运算,最重要的是深度学习中的深度所指就是拥有多于一层的隐含层,输出层是输出的数据。在神经元的连线之间对应着的是权重,该权重决定了各输入数据的重要程度,神经元中还应用一个激活函数来“标准化”神经元的输出的数据,一般常用的激活函数有,如非线性激活函数(Sigmoid),它的作用是可以把输入的实值数据转换成0和1之间的输出的实值数据,比较特殊的是,当输入的数据值是一个无限大的值时,它输出的数据是1,或者输入的数据值时无限小的负数时,它输出的数据就是0。但是,非线性激活函数缺点是在深度神经网络中梯度反向传递时可能会导致梯度爆炸或者是梯度消失,其中梯度爆炸发生的概率非常小,而梯度消失发生的概率比较大,此外,非线性激活函数的输出非0均值(zero-centered),且解析式中含有幂运算,造成训练时间过长。Tanh函数解决Sigmoid函数的非0均值输出问题。Relu函数解决了梯度消失的问题,收敛速度远快于Sigmoid和Tanh。Relu函数是目前最常见的激活函数。但是Relu函数可能会使某些神经元可能永远不会被激活。从而研究人员提出了LeakyRelu函数和ELU函数(ExponentialLinearUnits)。卷积神经网络最开始是在2012年的ImageNet挑战赛显露头角,AlexKrizhevsky利用卷积网络把分类误差记录从26%降到了15%,在当时震惊了世界,因而赢得了那一年的冠军。卷积神经网络与传统的神经网络相比来说,其一是参数共享机制,参数共享机

【参考文献】:
期刊论文
[1]基于色度饱和度-角度梯度直方图特征的尺度自适应核相关滤波跟踪[J]. 王春平,王暐,刘江义,付强,徐艳.  光学精密工程. 2016(09)
[2]压缩感知理论及其研究进展[J]. 石光明,刘丹华,高大化,刘哲,林杰,王良君.  电子学报. 2009(05)



本文编号:2933449

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2933449.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户39b0c***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com