基于深度学习的无人车场景实例分割技术研究
发布时间:2021-01-26 20:47
随着计算机技术的发展,无人驾驶已成为当下研究的热点技术之一。随着深度学习与计算机视觉算法的快速发展,无人驾驶的智能程度得到了极大的提高,使无人驾驶利用低成本的图像对复杂场景信息进行分析成为了可能。在无人驾驶中常用的计算机视觉算法有目标检测算法、图像语义分割算法等。目标检测算法虽然能预测环境中每个实例所处的大致区域,却无法对实例进行像素级分类。图像语义分割能提供全局的像素级分类信息,却无法区分不同的实例。而实例分割算法综合了目标检测与图像语义分割两个任务的预测结果,为无人驾驶场景提供环境中更加丰富具体的实例相关信息,使无人驾驶视觉技术拥有更强的环境信息分析能力。目前成熟的实例分割算法大多为两阶段的,推理速度较慢,不适合实时性要求较高的无人驾驶场景。本课题提出一种基于单阶段目标检测算法的快速实例分割算法模型,该方法将Mask RCNN目标检测部分由原来的先产生候选框,再对候选框进行回归精修的方式替换为由YOLOv3算法直接生成最终的目标包围框,利用再池化技术将包围框从对应特征图中抠取出来并裁剪为固定大小,之后从这些固定大小的特征图中预测实例的掩模,最后通过上采样操作生成原图中的目标实例掩模...
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:61 页
【学位级别】:硕士
【部分图文】:
残差学习模块[46]
哈尔滨工业大学工学硕士学位论文-9-路,一种是基于候选区域的两阶段目标检测算法,一种是直接预测目标包围框的单阶段目标检测算法。两阶段算法的思路是先产生可能包含物体的候选框,再对候选框进行重回归得到目标框位置。针对候选框的生成,早期使用滑动窗口生成,由于计算量太大,被改进为采用选择性搜索算法生成候选框,此类算法以文献[8,9,11]为代表。选择新搜索算法虽然能稍微缓解计算量大的问题,但该问题仍然存在。为了解决这个问题,后以文献[10,45]为代表的算法采用基于候选区域网络的方式生成区域候选框,减少计算量的同时让网络自动产生候选区域。一阶段算法思路由文献[12]开启,其将包围框预测问题转换为回归问题,直接预测包围框的位置。文献[13-16]在次基础上引入特征金字塔,提高了目标检测算法的预测能力,其中文献[16]通过引入foaclloss损失函数,缓解了类别不均衡样本的目标检测误差大的问题。图2-2基于深度学习的目标检测算法可以看出,基于深度学习的目标检测算法已经相对成熟,目前流行的是以FastR-CNN为代表的两阶段目标检测算法和以YOLO、SSD为代表的单阶段目标检测算法,两种类型的算法关注点不同,前者注重精度,后者注重速度。虽然设计思路不同,但是许多思想也有相互借鉴,下面就目标检测涉及到的相关基础知识进行深入剖析。2.3.1候选区域生成两阶段的目标检测算法一般是基于候选区域的,主要思想是通过生成一系列的候选区域,对候选区域进行分类粗略的得到包含物体的候选框,再对候选框进行精修,即对选中的候选框进行回归得到物体的具体包围框。早期的算法利用多
哈尔滨工业大学工学硕士学位论文-10-尺度的滑动窗口在原图中产生大量的推荐区域,然后利用卷积神经网络对这些候选区域进行回归和分类,得到最终的结果。但是计算量庞大,时间成本太高。文献[8]随后提出了图2-3所示的R-CNN算法,算法使用了选择性搜索并将候选区域缩小到2000个左右,随后对2000个区域进行目标检测,但仍然计算量大。图2-3R-CNN算法框架[8]在此之后,文献[10]在R-CNN基础上提出了图2-4所示的FastRCNN算法,先利卷积神经网络提取图片的特征,再在特征图上进行选择性搜索得到特征图的候选推荐区域,这样从计算2000张候选区域的特征变为了只需要提取一次特征,极大减少了计算量。图2-4FastRCNN算法框架[10]文献[45]创造性地提出候选区域生成网络(RegionProposalNetworks,RPN),使候选区域的生成自动化。RPN框架如图2-5所示。FasterR-CNN与文献[10]做法一样都是对整张图像进行特征提取,RPN和最终的目标检测任务共享特征。RPN预设了9个尺度的锚点,并在CNN输出的卷积图上滑动扫描每个像素点的9个不同尺度的特征图,以此获取候选区域,对区域推荐映射的特征进行降维后,最终输出区域推荐的坐标信息和分类分数。在RPN提取候选区域阶段并不关注目标的
【参考文献】:
期刊论文
[1]基于深度学习的目标检测算法综述[J]. 周晓彦,王珂,李凌燕. 电子测量技术. 2017(11)
[2]基于DCNN的图像语义分割综述[J]. 魏云超,赵耀. 北京交通大学学报. 2016(04)
[3]无人驾驶汽车的发展现状和展望[J]. 杨帆. 上海汽车. 2014(03)
[4]深度学习研究综述[J]. 孙志军,薛磊,许阳明,王正. 计算机应用研究. 2012(08)
本文编号:3001789
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:61 页
【学位级别】:硕士
【部分图文】:
残差学习模块[46]
哈尔滨工业大学工学硕士学位论文-9-路,一种是基于候选区域的两阶段目标检测算法,一种是直接预测目标包围框的单阶段目标检测算法。两阶段算法的思路是先产生可能包含物体的候选框,再对候选框进行重回归得到目标框位置。针对候选框的生成,早期使用滑动窗口生成,由于计算量太大,被改进为采用选择性搜索算法生成候选框,此类算法以文献[8,9,11]为代表。选择新搜索算法虽然能稍微缓解计算量大的问题,但该问题仍然存在。为了解决这个问题,后以文献[10,45]为代表的算法采用基于候选区域网络的方式生成区域候选框,减少计算量的同时让网络自动产生候选区域。一阶段算法思路由文献[12]开启,其将包围框预测问题转换为回归问题,直接预测包围框的位置。文献[13-16]在次基础上引入特征金字塔,提高了目标检测算法的预测能力,其中文献[16]通过引入foaclloss损失函数,缓解了类别不均衡样本的目标检测误差大的问题。图2-2基于深度学习的目标检测算法可以看出,基于深度学习的目标检测算法已经相对成熟,目前流行的是以FastR-CNN为代表的两阶段目标检测算法和以YOLO、SSD为代表的单阶段目标检测算法,两种类型的算法关注点不同,前者注重精度,后者注重速度。虽然设计思路不同,但是许多思想也有相互借鉴,下面就目标检测涉及到的相关基础知识进行深入剖析。2.3.1候选区域生成两阶段的目标检测算法一般是基于候选区域的,主要思想是通过生成一系列的候选区域,对候选区域进行分类粗略的得到包含物体的候选框,再对候选框进行精修,即对选中的候选框进行回归得到物体的具体包围框。早期的算法利用多
哈尔滨工业大学工学硕士学位论文-10-尺度的滑动窗口在原图中产生大量的推荐区域,然后利用卷积神经网络对这些候选区域进行回归和分类,得到最终的结果。但是计算量庞大,时间成本太高。文献[8]随后提出了图2-3所示的R-CNN算法,算法使用了选择性搜索并将候选区域缩小到2000个左右,随后对2000个区域进行目标检测,但仍然计算量大。图2-3R-CNN算法框架[8]在此之后,文献[10]在R-CNN基础上提出了图2-4所示的FastRCNN算法,先利卷积神经网络提取图片的特征,再在特征图上进行选择性搜索得到特征图的候选推荐区域,这样从计算2000张候选区域的特征变为了只需要提取一次特征,极大减少了计算量。图2-4FastRCNN算法框架[10]文献[45]创造性地提出候选区域生成网络(RegionProposalNetworks,RPN),使候选区域的生成自动化。RPN框架如图2-5所示。FasterR-CNN与文献[10]做法一样都是对整张图像进行特征提取,RPN和最终的目标检测任务共享特征。RPN预设了9个尺度的锚点,并在CNN输出的卷积图上滑动扫描每个像素点的9个不同尺度的特征图,以此获取候选区域,对区域推荐映射的特征进行降维后,最终输出区域推荐的坐标信息和分类分数。在RPN提取候选区域阶段并不关注目标的
【参考文献】:
期刊论文
[1]基于深度学习的目标检测算法综述[J]. 周晓彦,王珂,李凌燕. 电子测量技术. 2017(11)
[2]基于DCNN的图像语义分割综述[J]. 魏云超,赵耀. 北京交通大学学报. 2016(04)
[3]无人驾驶汽车的发展现状和展望[J]. 杨帆. 上海汽车. 2014(03)
[4]深度学习研究综述[J]. 孙志军,薛磊,许阳明,王正. 计算机应用研究. 2012(08)
本文编号:3001789
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3001789.html
最近更新
教材专著