基于深度学习的三维场景下障碍物感知技术的研究与应用
发布时间:2021-10-26 18:43
科学技术的发展与关键技术的突破往往会解决相关领域内的重要科学问题,从而带动社会经济的蓬勃发展。得益于近些年深度学习技术的快速创新,许多传统技术无法攻克的问题正在不断被解决,同时硬件技术的革新和大规模数据的出现有助于深度学习在计算机视觉领域取得突破性的进展。在人工智能时代,无人驾驶车作为新时代人类出行的交通工具,其相关技术有着极其重要的研究意义。本文主要针对无人驾驶中复杂道路场景下的三维感知任务提出解决方案,工作重点主要包括两个方面:检测和追踪。对于检测任务,本论文对基于深度学习的3D物体检测算法进行深入研究,在激光雷达采样的点云数据表征方面设计了具有局部信息的综合特征,在3D物体检测方面提出了拥有自相关注意力机制的深度学习模型(SCANet)。对于追踪任务,本文使用卡尔曼滤波以及匈牙利匹配算法对道路上检测到的障碍物进行运动状态的估计以及运动轨迹的关联。本文的主要研究内容以及创新点如下:(1)针对现有3D物体检测技术中对于点云数据的表征信息挖掘不充分的问题,本文提出了一种新的特征设计方法,首先将点云数据转化为3D体素网格形式,然后通过对每个网格的水平角度编码引入了局部方向信息,最后将局部...
【文章来源】:西安建筑科技大学陕西省
【文章页数】:71 页
【学位级别】:硕士
【部分图文】:
tanh函数
西安建筑科技大学硕士学位论文10()11xfxe=+(2-7)图2.1sigmoid函数在Sigmoid函数的两侧有饱和区,这将导致梯度反向传播中易出现梯度消失的问题。Tanh函数,如式(2-8),该激活函数又被称为曲线正切函数,函数取值范围为(-1,1),其函数形式如图2.2所示。tanh()xxxxeexee=+(2-8)图2.2tanh函数目前为止,深度学习中较为常用的激活函数为Relu函数,如公式(2-9),相比与Sigmoid,Tanh,其应用更加常见,因为Relu函数的优点在于梯度不饱和、计算快、在反向传播中能减少梯度消失的现象,同时通过Relu激活后的特征能最大程度保留特征,抑制不重要的信息,如图2.3所示。f(x)=max(0,x)(2-9)
西安建筑科技大学硕士学位论文11图2.3relu函数2.2梯度下降算法梯度下降算法是神经网络最重要的优化算法,目前常用的优化算法包括一阶优化算法以及二阶优化算法[45]。梯度下降算法针对凸优化问题,原则上是可以收敛到全局最优点的,但是深度神经网络模型是一个非常复杂的非线性模型,属于非凸问题,这意味着存在许多局部最优解,因此在这个问题上需要人工调整许多参数。梯度下降是一种在优化函数()J的梯度J()反方向上通过更新参数d来最小化优化函数的方法,学习速率决定了梯度下降的步长,通俗的说,梯度下降遵循目标函数曲面下坡的方向,直到到达谷底。目前常见的梯度下降算法有随机梯度下降(SGD)、动量梯度下降(Momentum)、Adam等。2.2.1Adam优化器自适应矩估计(Adam)[46]是一种计算每个参数的自适应学习率的方法,除了累加过去时间步的平方梯度的指数衰减平均(如Adadelta和RMSprop)之外,Adam还保存了过去梯度m的指数衰减平均值,类似于动量:()1111tttmmg=+(2-10)()22121tttvvg=+(2-11)上式(2-10)和式(2-11)中,tm是梯度的一阶动量的估计值,tv是梯度的二阶动量的估计值,当tm和tv初始化为0向量时,它们偏向零,特别是在初始时间步长期间或者当衰减率很小的时候(例如1和2接近1)。它们通过计算偏差校正的第一和第二时刻估计来抵消这些偏差,如下式(2-12)和(2-13):
【参考文献】:
期刊论文
[1]深度神经网络代价函数选择与性能评测研究[J]. 赵宏,郭万鹏. 软件. 2018(01)
[2]基于LM算法的MLP模型及其应用[J]. 李南星,盛益强,倪宏. 网络新媒体技术. 2018(01)
[3]拓扑约束结合匈牙利算法在高密度神经干细胞追踪中的研究[J]. 汤春明,董莎莎,宁燕博,崔颖. 生物医学工程学杂志. 2012(04)
硕士论文
[1]基于多激光雷达的行人目标跟踪[D]. 罗赞丰.浙江大学 2012
本文编号:3460012
【文章来源】:西安建筑科技大学陕西省
【文章页数】:71 页
【学位级别】:硕士
【部分图文】:
tanh函数
西安建筑科技大学硕士学位论文10()11xfxe=+(2-7)图2.1sigmoid函数在Sigmoid函数的两侧有饱和区,这将导致梯度反向传播中易出现梯度消失的问题。Tanh函数,如式(2-8),该激活函数又被称为曲线正切函数,函数取值范围为(-1,1),其函数形式如图2.2所示。tanh()xxxxeexee=+(2-8)图2.2tanh函数目前为止,深度学习中较为常用的激活函数为Relu函数,如公式(2-9),相比与Sigmoid,Tanh,其应用更加常见,因为Relu函数的优点在于梯度不饱和、计算快、在反向传播中能减少梯度消失的现象,同时通过Relu激活后的特征能最大程度保留特征,抑制不重要的信息,如图2.3所示。f(x)=max(0,x)(2-9)
西安建筑科技大学硕士学位论文11图2.3relu函数2.2梯度下降算法梯度下降算法是神经网络最重要的优化算法,目前常用的优化算法包括一阶优化算法以及二阶优化算法[45]。梯度下降算法针对凸优化问题,原则上是可以收敛到全局最优点的,但是深度神经网络模型是一个非常复杂的非线性模型,属于非凸问题,这意味着存在许多局部最优解,因此在这个问题上需要人工调整许多参数。梯度下降是一种在优化函数()J的梯度J()反方向上通过更新参数d来最小化优化函数的方法,学习速率决定了梯度下降的步长,通俗的说,梯度下降遵循目标函数曲面下坡的方向,直到到达谷底。目前常见的梯度下降算法有随机梯度下降(SGD)、动量梯度下降(Momentum)、Adam等。2.2.1Adam优化器自适应矩估计(Adam)[46]是一种计算每个参数的自适应学习率的方法,除了累加过去时间步的平方梯度的指数衰减平均(如Adadelta和RMSprop)之外,Adam还保存了过去梯度m的指数衰减平均值,类似于动量:()1111tttmmg=+(2-10)()22121tttvvg=+(2-11)上式(2-10)和式(2-11)中,tm是梯度的一阶动量的估计值,tv是梯度的二阶动量的估计值,当tm和tv初始化为0向量时,它们偏向零,特别是在初始时间步长期间或者当衰减率很小的时候(例如1和2接近1)。它们通过计算偏差校正的第一和第二时刻估计来抵消这些偏差,如下式(2-12)和(2-13):
【参考文献】:
期刊论文
[1]深度神经网络代价函数选择与性能评测研究[J]. 赵宏,郭万鹏. 软件. 2018(01)
[2]基于LM算法的MLP模型及其应用[J]. 李南星,盛益强,倪宏. 网络新媒体技术. 2018(01)
[3]拓扑约束结合匈牙利算法在高密度神经干细胞追踪中的研究[J]. 汤春明,董莎莎,宁燕博,崔颖. 生物医学工程学杂志. 2012(04)
硕士论文
[1]基于多激光雷达的行人目标跟踪[D]. 罗赞丰.浙江大学 2012
本文编号:3460012
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3460012.html
最近更新
教材专著