当前位置:主页 > 科技论文 > 自动化论文 >

基于深度学习的交通标志检测与识别方法研究

发布时间:2020-12-17 07:30
  交通标志作为一项按照严格标准制定的道路设施,对反映当地路况、疏散交通、保障安全有序的行车环境都具有重要的作用。随着现代智能驾驶技术的提高,交通标志的自动检测与识别愈发成为无人驾驶领域的热门探讨课题。传统的机器学习算法往往只能捕捉到交通标志单一的特征,且大都依赖于先验处理和经验判定,不具有普适性。基于深度学习的方法则通过构造深度卷积神经网络(Deep Convolution Neural Network,DCNN)模型,能够挖掘到交通标志更多层次、更加丰富的语义信息,在实现智能检测与识别的同时适应了实时性和精准度的要求。本文在充分研究单阶和双阶目标检测网络的优势和劣势,以及各种多尺度检测方法的基础上,提出了两种基于深度学习的交通标志牌检测与识别方法。一种方法通过构建残差SSD(Single Shot Multibox Detector)网络,并采用由粗到细的多尺度分块策略完成交通标志的检测与识别。首先对高分辨率的交通图像进行多尺度分块,然后对中等尺度下的图像块进行粗检,接着将与粗检结果相关的其他尺度下的图像块放入残差网络进行精检。训练模型时利用难例挖掘方法保持正负样本比例平衡,测试时通过... 

【文章来源】:天津大学天津市 211工程院校 985工程院校 教育部直属院校

【文章页数】:64 页

【学位级别】:硕士

【部分图文】:

基于深度学习的交通标志检测与识别方法研究


不同尺寸的交通标志实例数量分布图

数量分布,交通标志,数量分布,类别


天津大学硕士学位论文6交通图像,其中600张图像用于训练,300张图像用于测试评估。BelgiumTS数据集包含62种类别的交通标志,每个类别包含几百张交通标志图像,图上的文字通常为荷兰语和法语,每张图像拍摄角度和光线条件各有不同,图像的尺寸大约在128×128左右。中国相对大型的公开交通标志数据集则当属清华大学与腾讯联合实验室在2016年分布的Tsinghua-Tencent-100k。与GTSRB等数据集从视频中提取交通标志图像序列的方式不同,该数据集中的图像是由6台单反相机拍摄的全景图像裁剪而来,并做了一些曝光调整。场景取自中国5个城市10个不同地区的真实街景,在亮度、对比度等方面都存在较大差异。裁剪图像的数量达到了100000张,其中有10000张包含标志牌,涵盖了30000个交通标志实例。图像分辨率为2048×2048,约为GTSDB数据集的32倍。交通标志在图像中占比很小,大多数只有个位数百分比,如图1-1所示[52]。此外,标志牌各类别实例数量差异也很大,存在较严重的类别不平衡的问题,如图1-2所示[52]。相比于GTSDB只能检测四类标志、GTSRB和BelgiumTS中的交通标志在整幅图像中占比超过80%,Tsinghua-Tencent-100k更能反映真实的路况信息,具有较高的研究价值,这也意味着相关研究面临着艰巨的挑战。图1-1不同类别的交通标志实例数量分布图图1-2不同尺寸的交通标志实例数量分布图

示意图,示意图,多尺度,特征图


第2章多尺度检测方法研究112.3多特征层提取方法多特征层提取方法即利用卷积神经网络的多尺度特性,将不同层的网络特征图进行融合,提取多尺度特征。现有主流的目标检测网络,可以分为单阶检测网络和双阶检测网络两种,接下来本文将分别对它们的多特征层提取方法进行介绍。2.3.1单阶检测网络单阶检测网络是指不需要区域建议,直接产生物体的类别概率和预测坐标值,单次检测即可直接得到最终检测结果的网络。单阶检测网络把目标检测看作一个回归问题,通过一个回归分支由整张图片的所有像素得到目标包围框(boundingbox,bbox)的坐标;把目标识别看作是一个分类问题,通过一个分类分支得到包围框中包含目标的置信度和类别概率,从而得到目标类别。由于不需要额外的特征提取过程和阶段网络,实现了end-to-end的检测,速度上十分快。比较经典的网络有YOLO、SSD、RetinaNet等。最初的YOLO网络通过将最后一层特征图划分为S×S个格子,分别以每个小格为中心在整个特征图范围内圈定2个不同的候选框进行预测。设定的候选框具有不同的尺寸,从而达到多尺度检测的目的。YOLO分格与候选框预测如图2-1所示[28]。图2-1YOLO分格与候选框预测示意图


本文编号:2921650

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2921650.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户3df3f***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com