基于YOLOv3的国内交通标志识别及嵌入式实现
发布时间:2021-08-17 13:22
近年来,随着人工智能领域的研究突破,汽车的辅助驾驶系统的推出改变了以往的驾驶模式。系统通过获取实时的路况信息,及时地提醒驾驶员做出准确的操作,从而防止因疲劳驾驶而导致车祸发生。交通标志是重要的路况信息,如何快速准确地识别交通标志牌至关重要。然而传统的目标检测算法在实景测试中面临着一些弊端,例如:易受光线、角度、障碍物遮挡、行车速度等因素限制,而且难以实现多目标检测、容易漏检、识别慢。本文面向交通标志实时准确识别的需要采取了针对性的研究和开发,主要工作如下:(1)鉴于国内交通标志的研究样本较少,选择了数据集较为完整的CCTSDB数据集,并对CCTSDB进行了预处理和扩充。标注数据有三大类:指示标志、禁止标志、警告标志。常见的交通标志均已包含,图片所选环境的复杂程度符合实际情况。(2)首先利用深度学习网络YOLOv3对CCTSDB做初步训练,在测试中,对于图片的识别上,准确率均到达98%以上,识别所需时间为0.03s左右。可见利用YOLOv3可以进行实时检测识别。然而,在视频识别上,对于远处小目标容易出现漏检,甚至是错检。针对这一问题,本文对yolo层下的anchor值做了聚类分析,结合了...
【文章来源】:海南大学海南省 211工程院校
【文章页数】:45 页
【学位级别】:硕士
【部分图文】:
目标检测算法的发展进程
基于YOLOv3的国内交通标志识别及嵌入式实现62YOLO目标检测系列算法研究2.1YOLO系列之YOLOv12.1.1YOLOv1检测原理Yolov1出自在CVPR2016上发表的论文《YouOnlyLookOnce:Unified,Real-Time物体Detection》,是经典的one-stage检测算法,它凭借着简洁的网络结构、简单的复现过程而受到众多开发人员的追捧。YOLO算法的设计思想就是简单的端对端的理念,即整个检测样本输入,通过中间层的特征提取后,最后在输出层logistics回归出预测框的坐标信息与类别信息。虽然fasterRCNN也是直接将整个图片作为输入,但采用的是R-CNN系列的proposal+classifier的思想,只不过将提取proposal的步骤在CNN中实现[27]。YOLOv1的检测过程如图2.1所示,具体步骤如下:图2.1YOLO算法检测流程Fig2.1YOLOalgorithmdetectionprocess首先将原始图片调整大小到448x448,再划分为SxS(例:7x7)个单元格,这是为了方便划分物体中心位置点。每个单元格能单独检测物体对象。假如物体的中心坐标落在某个单元格内,那么该单元格对这个物体的预测相比相邻的单元格就更加重要,它给出的预测信息就决定着该物体是否能被准确识别,简单来说就是该单元格要对该物体负责。其中,每个单元格需要预测B个boundingbox值(边界框值包含坐标(x,y)和宽高(w,h)),同时为每个边界框值预测一个置信度(confidencescores)。因此单元格预测B个5维数组,即(x,y,w,h,confidence)。其中(x,y)是边界框的中心位置相对于当前单元格左上角的偏移量,取值范围在0-1之间,(w,h)是
海南大学硕士学位论文7边界框相对于整张图片的宽长占比,取值范围在0-1之间。对于置信度confidence,这个置信度的计算包含两个部分,一是单元格内是否存在物体;二是预测框与真实框的IoU值。置信度的计算公式为truthpred)Pr(IoUObject(2.1)1.如果单元格内有物体,则1)Object(Pr,此时置信度等于IoU2.如果单元格内没有物体,则0)Object(Pr,此时置信度等于0接着每个单元格还要给出C(预测物体的种类个数)个条件概率值。记为:ObjectClass)|Pr(i(2.2)这里输出的种类概率值是针对当前单元格的,不是针对边界框的。所以一个单元格只会输出C个类别的条件概率信息,故而只能预测一种类别的物体。在检测目标时,考虑到C个类别的预测信息,confidence的公式就变成:truthpreditruthpredibjectClassO)Pr()Pr()|Pr(IoUClassIoUbjectO(2.3)最后通过设置一个阈值,将confidence的低分部分滤掉,剩下的使用NMS(非极大值抑制)去除多余框,得到最终的标定框,也就是图2.1中最后得到的预测框。2.1.2网络结构图2.2YOLOv1的网络结构Fig2.2ThenetworkstructureofYOLOv1Yolov1的网络架构采用的是CNN的经典形式,开始是convolutionallayers提取特征,再是fullyconnectedlayers进行预测结果。其内部的具体设计是受GoogleNet的启发,见图2.2,448x448分辨率的输入图片通过24个卷积层(均是1x1卷积层+3x3
【参考文献】:
期刊论文
[1]基于YOLO v3的交通标志牌检测识别[J]. 潘卫国,刘博,陈英昊,石洪丽. 传感器与微系统. 2019(11)
[2]基于感兴趣区域和HOG-CTH特征的交通标志检测[J]. 孙露霞,张尤赛,李永顺,张硕. 计算机与数字工程. 2018(06)
[3]基于改进SIFT算法的英国交通标志识别研究[J]. 赵炎,蓝箭,李印,斯杭煜. 工业控制计算机. 2016(02)
本文编号:3347846
【文章来源】:海南大学海南省 211工程院校
【文章页数】:45 页
【学位级别】:硕士
【部分图文】:
目标检测算法的发展进程
基于YOLOv3的国内交通标志识别及嵌入式实现62YOLO目标检测系列算法研究2.1YOLO系列之YOLOv12.1.1YOLOv1检测原理Yolov1出自在CVPR2016上发表的论文《YouOnlyLookOnce:Unified,Real-Time物体Detection》,是经典的one-stage检测算法,它凭借着简洁的网络结构、简单的复现过程而受到众多开发人员的追捧。YOLO算法的设计思想就是简单的端对端的理念,即整个检测样本输入,通过中间层的特征提取后,最后在输出层logistics回归出预测框的坐标信息与类别信息。虽然fasterRCNN也是直接将整个图片作为输入,但采用的是R-CNN系列的proposal+classifier的思想,只不过将提取proposal的步骤在CNN中实现[27]。YOLOv1的检测过程如图2.1所示,具体步骤如下:图2.1YOLO算法检测流程Fig2.1YOLOalgorithmdetectionprocess首先将原始图片调整大小到448x448,再划分为SxS(例:7x7)个单元格,这是为了方便划分物体中心位置点。每个单元格能单独检测物体对象。假如物体的中心坐标落在某个单元格内,那么该单元格对这个物体的预测相比相邻的单元格就更加重要,它给出的预测信息就决定着该物体是否能被准确识别,简单来说就是该单元格要对该物体负责。其中,每个单元格需要预测B个boundingbox值(边界框值包含坐标(x,y)和宽高(w,h)),同时为每个边界框值预测一个置信度(confidencescores)。因此单元格预测B个5维数组,即(x,y,w,h,confidence)。其中(x,y)是边界框的中心位置相对于当前单元格左上角的偏移量,取值范围在0-1之间,(w,h)是
海南大学硕士学位论文7边界框相对于整张图片的宽长占比,取值范围在0-1之间。对于置信度confidence,这个置信度的计算包含两个部分,一是单元格内是否存在物体;二是预测框与真实框的IoU值。置信度的计算公式为truthpred)Pr(IoUObject(2.1)1.如果单元格内有物体,则1)Object(Pr,此时置信度等于IoU2.如果单元格内没有物体,则0)Object(Pr,此时置信度等于0接着每个单元格还要给出C(预测物体的种类个数)个条件概率值。记为:ObjectClass)|Pr(i(2.2)这里输出的种类概率值是针对当前单元格的,不是针对边界框的。所以一个单元格只会输出C个类别的条件概率信息,故而只能预测一种类别的物体。在检测目标时,考虑到C个类别的预测信息,confidence的公式就变成:truthpreditruthpredibjectClassO)Pr()Pr()|Pr(IoUClassIoUbjectO(2.3)最后通过设置一个阈值,将confidence的低分部分滤掉,剩下的使用NMS(非极大值抑制)去除多余框,得到最终的标定框,也就是图2.1中最后得到的预测框。2.1.2网络结构图2.2YOLOv1的网络结构Fig2.2ThenetworkstructureofYOLOv1Yolov1的网络架构采用的是CNN的经典形式,开始是convolutionallayers提取特征,再是fullyconnectedlayers进行预测结果。其内部的具体设计是受GoogleNet的启发,见图2.2,448x448分辨率的输入图片通过24个卷积层(均是1x1卷积层+3x3
【参考文献】:
期刊论文
[1]基于YOLO v3的交通标志牌检测识别[J]. 潘卫国,刘博,陈英昊,石洪丽. 传感器与微系统. 2019(11)
[2]基于感兴趣区域和HOG-CTH特征的交通标志检测[J]. 孙露霞,张尤赛,李永顺,张硕. 计算机与数字工程. 2018(06)
[3]基于改进SIFT算法的英国交通标志识别研究[J]. 赵炎,蓝箭,李印,斯杭煜. 工业控制计算机. 2016(02)
本文编号:3347846
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3347846.html