基于卷积神经网络的野外道路环境感知技术研究
发布时间:2021-11-15 18:06
目前,城市道路环境下无人驾驶汽车技术得到较多地关注且取得很多卓越成果,但野外道路环境下无人驾驶技术则仍存在较多挑战。如何在复杂多变的野外道路环境下实现对车辆周围环境的高效准确感知是实现野外无人驾驶的关键技术之一。本文重点研究利用卷积神经网络实现野外道路环境中无人移动平台的自主感知。本文的研究工作主要分为三个部分:基于分类网络的野外道路环境感知技术、基于语义分割网络的野外道路环境感知技术以及基于卷积神经网络的整车实验。主要完成的内容有:本文将无行人的野外道路环境感知简化为一个分类问题,使用一个分类网络对无行人的野外道路环境进行粗糙地感知。本文改进了ShuffleNetV2网络中的骨干网络,提出一种FSNet轻量化的分类网络。FSNet网络的准确率为97.28%,单张图像的处理时间为5.94ms,比ShuffleNetV2网络提升了49.5%。有行人的野外道路环境感知任务相对复杂,本文使用语义分割网络对无人移动平台前方道路环境进行像素级的分割。语义分割网络在野外道路环境感知任务中泛化性差且易存在误识别的问题,本文提出的DGNet语义分割网络可以很好地解决这些问题。DGNet网络是在Deep...
【文章来源】:中国矿业大学江苏省 211工程院校 教育部直属院校
【文章页数】:85 页
【学位级别】:硕士
【部分图文】:
AlexNet卷积神经网络结构图
3基于分类网络的野外道路感知技术25外道路环境的数据集,与本文需要处理的野外道路场景很接近。因此,本文选择IDSIA数据集做预训练数据集。3.3.2图像采集与标注虽然有一些公开的数据集可以使用,但是在测试的野外道路场地上采集图像数据并制作数据集是十分必要的。数据图像采集的方式如图3-5所示,将三台顺华利相机(200万像素,30帧)固定在一块水平的铝合金板上,采集同一时间三个不同视角的视频数据,1台相机朝着道路的中心线,1台相机朝着左边30度,1台相机朝着右边30度,采集的视频数据保存到一台华硕笔记本电脑里。图3-5数据采集方法Figure3-5Dataacquisitionmethod为了使采集的视频数据更接近真实的道路环境分布,在不同的天气(晴天和阴天)的不同时间段(上午8时,11时,下午的3时)采集野外道路场景的视频数据共计100小时。在采集的视频数据中,只包含道路的视频数据每100帧提取1帧图像,包含行人的视频数据每30帧提取1郑同时,将提取的图像中一些模糊的、视角水平倾斜严重的、未包含道路信息等图像剔除掉。按照每一张图像所属的类别,将图像放入到不同的文件夹下,分别是left、centre、right和person。制作的分类数据集数据分布如图3-6所示,共包含图像44871张,其中训练集40368张,测试集4503张,训练集与测试集样本的比例接近9:1。各个类间样本数量比较均衡,以训练集为例,前三个类的样本数量在10000个左右,行人类的样本数量略少,有8451个样本,但也与前三个类的样本数量十分接近。自采分类数据集中图像的分辨率为480×640。
工程硕士专业学位论文38个类,超过33万张图片,有标注的图片有20万张。COCO数据集中的部分图像如图4-3所示。图4-3COCO数据集Figure4-3COCOdatasets(2)Cityscapes数据集Cityscapes数据集是面向城市道路的大规模数据集,包含了50个不同城市的街道场景。该数据集提供了两套不同评测标准,其中精细(Fine)评测标准提供5000张精细标注的图像,粗糙(Coarse)评测标准除了提供5000张精细标注的图像之外,还有20000张粗糙标注的图像。Cityscapes数据集提供了像素级的标注,并提供了算法评估的接口。Cityscapes数据集中的部分图像如图4-4所示。ImageObjectsClass图4-4Cityscapes数据集Figure4-4Cityscapesdatasets4.3.2图像采集与标注深度学习任务通常都是有监督的学习,语义分割任务也是如此。在训练语义分割网络时,网络的输入是一张彩色的RGB图像和一张单通道的灰度图。这张单通道的灰度图即是输入RGB图像的标签,标签图像与RGB图像具有相同的分辨率,标签图像上的每一个像素表示与之对应的RGB图像上每一个像素所属的类别。在制作语义分割任务的标签时,需要对RGB图像中的不同区域打上标签,比如将图像中的道路区域打上标签1,行人区域打上标签2,剩下的区域都当成背景,打上标签0。由于输入图像中的道路区域并没有明显的边界,本文在给道路区域打标签时,一个原则是小车可以行驶的区域即是道路区域。
【参考文献】:
期刊论文
[1]无人驾驶汽车发展现状及发展趋势[J]. 刘作峰,张金友. 河北农机. 2020(01)
[2]中国汽车产业智能化升级发展研究[J]. 王小明. 改革. 2019(12)
[3]浅谈城市环境下无人驾驶汽车的发展与挑战[J]. 王楠,李丽丽,陈鹏东,王源绍. 内燃机与配件. 2018(17)
[4]地面无人作战平台“作战机器人”国内外研究现状[J]. 李玉玺,李正宇,徐宏斌,侯林海. 兵器装备工程学报. 2017(12)
[5]山河智能“龙马一号”惊艳亮相世界机器人大会[J]. 工程机械. 2017(10)
[6]无人驾驶技术的应用[J]. 张津平. 信息系统工程. 2017(04)
[7]考虑土壤剪切变形的铰接式履带车辆转向性能[J]. 董超,成凯,胡文强,欧阳波,武斌. 吉林大学学报(工学版). 2016(06)
[8]智能汽车前景可期——访中国工程院院士李德毅[J]. 王玲,张琨. 高科技与产业化. 2013(10)
[9]眼睛——人体的“侦察兵”[J]. 张光辉. 小学科技. 2012(11)
[10]美国“蜘蛛”和“压路机”轮式无人地面战斗车辆[J]. 安向京,费晓曦. 汽车运用. 2011(12)
博士论文
[1]城市环境下无人驾驶车辆决策系统研究[D]. 陈佳佳.中国科学技术大学 2014
硕士论文
[1]自动驾驶背景下的行人检测技术研究[D]. 吕郅强.哈尔滨理工大学 2018
[2]车道线检测和语义分割模型在自动驾驶中的应用[D]. 陈必科.南京理工大学 2018
[3]复杂野外环境下机器人障碍物检测方法研究[D]. 王盛.浙江大学 2015
[4]基于雷达与相机的无人驾驶智能车障碍物检测技术研究[D]. 张双喜.长安大学 2013
本文编号:3497255
【文章来源】:中国矿业大学江苏省 211工程院校 教育部直属院校
【文章页数】:85 页
【学位级别】:硕士
【部分图文】:
AlexNet卷积神经网络结构图
3基于分类网络的野外道路感知技术25外道路环境的数据集,与本文需要处理的野外道路场景很接近。因此,本文选择IDSIA数据集做预训练数据集。3.3.2图像采集与标注虽然有一些公开的数据集可以使用,但是在测试的野外道路场地上采集图像数据并制作数据集是十分必要的。数据图像采集的方式如图3-5所示,将三台顺华利相机(200万像素,30帧)固定在一块水平的铝合金板上,采集同一时间三个不同视角的视频数据,1台相机朝着道路的中心线,1台相机朝着左边30度,1台相机朝着右边30度,采集的视频数据保存到一台华硕笔记本电脑里。图3-5数据采集方法Figure3-5Dataacquisitionmethod为了使采集的视频数据更接近真实的道路环境分布,在不同的天气(晴天和阴天)的不同时间段(上午8时,11时,下午的3时)采集野外道路场景的视频数据共计100小时。在采集的视频数据中,只包含道路的视频数据每100帧提取1帧图像,包含行人的视频数据每30帧提取1郑同时,将提取的图像中一些模糊的、视角水平倾斜严重的、未包含道路信息等图像剔除掉。按照每一张图像所属的类别,将图像放入到不同的文件夹下,分别是left、centre、right和person。制作的分类数据集数据分布如图3-6所示,共包含图像44871张,其中训练集40368张,测试集4503张,训练集与测试集样本的比例接近9:1。各个类间样本数量比较均衡,以训练集为例,前三个类的样本数量在10000个左右,行人类的样本数量略少,有8451个样本,但也与前三个类的样本数量十分接近。自采分类数据集中图像的分辨率为480×640。
工程硕士专业学位论文38个类,超过33万张图片,有标注的图片有20万张。COCO数据集中的部分图像如图4-3所示。图4-3COCO数据集Figure4-3COCOdatasets(2)Cityscapes数据集Cityscapes数据集是面向城市道路的大规模数据集,包含了50个不同城市的街道场景。该数据集提供了两套不同评测标准,其中精细(Fine)评测标准提供5000张精细标注的图像,粗糙(Coarse)评测标准除了提供5000张精细标注的图像之外,还有20000张粗糙标注的图像。Cityscapes数据集提供了像素级的标注,并提供了算法评估的接口。Cityscapes数据集中的部分图像如图4-4所示。ImageObjectsClass图4-4Cityscapes数据集Figure4-4Cityscapesdatasets4.3.2图像采集与标注深度学习任务通常都是有监督的学习,语义分割任务也是如此。在训练语义分割网络时,网络的输入是一张彩色的RGB图像和一张单通道的灰度图。这张单通道的灰度图即是输入RGB图像的标签,标签图像与RGB图像具有相同的分辨率,标签图像上的每一个像素表示与之对应的RGB图像上每一个像素所属的类别。在制作语义分割任务的标签时,需要对RGB图像中的不同区域打上标签,比如将图像中的道路区域打上标签1,行人区域打上标签2,剩下的区域都当成背景,打上标签0。由于输入图像中的道路区域并没有明显的边界,本文在给道路区域打标签时,一个原则是小车可以行驶的区域即是道路区域。
【参考文献】:
期刊论文
[1]无人驾驶汽车发展现状及发展趋势[J]. 刘作峰,张金友. 河北农机. 2020(01)
[2]中国汽车产业智能化升级发展研究[J]. 王小明. 改革. 2019(12)
[3]浅谈城市环境下无人驾驶汽车的发展与挑战[J]. 王楠,李丽丽,陈鹏东,王源绍. 内燃机与配件. 2018(17)
[4]地面无人作战平台“作战机器人”国内外研究现状[J]. 李玉玺,李正宇,徐宏斌,侯林海. 兵器装备工程学报. 2017(12)
[5]山河智能“龙马一号”惊艳亮相世界机器人大会[J]. 工程机械. 2017(10)
[6]无人驾驶技术的应用[J]. 张津平. 信息系统工程. 2017(04)
[7]考虑土壤剪切变形的铰接式履带车辆转向性能[J]. 董超,成凯,胡文强,欧阳波,武斌. 吉林大学学报(工学版). 2016(06)
[8]智能汽车前景可期——访中国工程院院士李德毅[J]. 王玲,张琨. 高科技与产业化. 2013(10)
[9]眼睛——人体的“侦察兵”[J]. 张光辉. 小学科技. 2012(11)
[10]美国“蜘蛛”和“压路机”轮式无人地面战斗车辆[J]. 安向京,费晓曦. 汽车运用. 2011(12)
博士论文
[1]城市环境下无人驾驶车辆决策系统研究[D]. 陈佳佳.中国科学技术大学 2014
硕士论文
[1]自动驾驶背景下的行人检测技术研究[D]. 吕郅强.哈尔滨理工大学 2018
[2]车道线检测和语义分割模型在自动驾驶中的应用[D]. 陈必科.南京理工大学 2018
[3]复杂野外环境下机器人障碍物检测方法研究[D]. 王盛.浙江大学 2015
[4]基于雷达与相机的无人驾驶智能车障碍物检测技术研究[D]. 张双喜.长安大学 2013
本文编号:3497255
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3497255.html