基于Fast R-CNN的车辆目标检测
发布时间:2020-12-16 21:18
目的在传统车辆目标检测问题中,需要针对不同图像场景选择适合的特征。为此提出一种基于快速区域卷积神经网络(Fast R-CNN)的场景图像车辆目标发现方法,避免传统车辆目标检测问题中需要设计手工特征的问题。方法该方法基于深度学习卷积神经网络思想。首先使用待检测车辆图像定义视觉任务。利用选择性搜索算法获得样本图像的候选区域,将候选区域坐标与视觉任务示例图像一起输入网络学习。示例图像经过深度卷积神经网络中的卷积层,池化层计算,最终得到深度卷积特征。在输入时没有规定示例图像的规格,此时得到的卷积特征规格不定。然后,基于Fast R-CNN网络结构,通过感兴趣区域池化层规格化特征,最后将特征输入不同的全连接分支,并行回归计算特征分类,以及检测框坐标值。经过多次迭代训练,最后得到与指定视觉任务强相关的目标检测模型,具有训练好的权重参数。在新的场景图像中,可以通过该目标检测模型检测给定类型的车辆目标。结果首先确定视觉任务包含公交车,小汽车两类,背景场景是城市道路。利用与视觉任务强相关的测试样本集对目标检测模型进行测试,实验表明,当测试样本场景与视觉任务相关度越高,且样本中车辆目标的形变越小,得到的车...
【文章来源】:中国图象图形学报. 2017年05期 北大核心
【文章页数】:7 页
【部分图文】:
基于视觉任务学习的目标发现方法思想Fig.1Thethoughtofobjectdetectionmethodbasedonvisiontasklearning
Vol.22,No.5,May2017674图2基于FastR-CNN的车辆目标检测流程Fig.2TheprocessofvehicleobjectdetectionbasedonFastR-CNN车辆目标。车辆目标的类型包括小汽车(car)和公交车(bus)。车辆视觉任务确定之后需要采集示例图像构建训练集,采集被测图像构建测试集。被检测的场景图像和目标是与视觉任务强相关的,所以在采集示例图像和被测图像应在相同环境下以相同的方式进行采集。将样本采集地点设定在天桥上,方便采集正面车辆。利用普通相机进行拍摄,相机的变焦保持一致。为了充分训练卷积神经网络上的参数,应采集足够多的图像样本。采集后的图像场景如图3所示。图3数据样本Fig.3Sampledata((a)bus;(b)car)最后对数据集样本进行标定,标定时记录车辆目标左上和右下的坐标值构成矩形框的坐标值v=(vx1,vy1,vx2,vy2)。2.2FastR-CNN的核心过程FastR-CNN的输入,包含3个部分:样本图像、其标定值(groundtruth)、objectproposals。通过计算每个样本图像的标定框与objectproposals的覆盖率,可以得到每个样本图像对应的一组感兴趣区域(RoIs)。每个图像的R个RoIs由表1构成。如图4所示卷积神经网络通过一些卷积层和最大池化层获得样本的卷积特征。然后,RoI池化层对每一个感兴趣区域,从卷积特征中提取出对应的一个规格化的特征向量。所有特征向量将输入全连接层最终将结果共享,产生两个支路,进入两个不同的层中。一个层负责利用softmax回归计算K类目标加一个“背景”类的概率估算值;另一个层负责输出,用来表征每个图像上K类目标的检测框坐标的4个值。表1RoIs的来源Table1RoIssources类别比例方式125%IoU在[0.5,1]的区域,作为背景275%I
eprocessofvehicleobjectdetectionbasedonFastR-CNN车辆目标。车辆目标的类型包括小汽车(car)和公交车(bus)。车辆视觉任务确定之后需要采集示例图像构建训练集,采集被测图像构建测试集。被检测的场景图像和目标是与视觉任务强相关的,所以在采集示例图像和被测图像应在相同环境下以相同的方式进行采集。将样本采集地点设定在天桥上,方便采集正面车辆。利用普通相机进行拍摄,相机的变焦保持一致。为了充分训练卷积神经网络上的参数,应采集足够多的图像样本。采集后的图像场景如图3所示。图3数据样本Fig.3Sampledata((a)bus;(b)car)最后对数据集样本进行标定,标定时记录车辆目标左上和右下的坐标值构成矩形框的坐标值v=(vx1,vy1,vx2,vy2)。2.2FastR-CNN的核心过程FastR-CNN的输入,包含3个部分:样本图像、其标定值(groundtruth)、objectproposals。通过计算每个样本图像的标定框与objectproposals的覆盖率,可以得到每个样本图像对应的一组感兴趣区域(RoIs)。每个图像的R个RoIs由表1构成。如图4所示卷积神经网络通过一些卷积层和最大池化层获得样本的卷积特征。然后,RoI池化层对每一个感兴趣区域,从卷积特征中提取出对应的一个规格化的特征向量。所有特征向量将输入全连接层最终将结果共享,产生两个支路,进入两个不同的层中。一个层负责利用softmax回归计算K类目标加一个“背景”类的概率估算值;另一个层负责输出,用来表征每个图像上K类目标的检测框坐标的4个值。表1RoIs的来源Table1RoIssources类别比例方式125%IoU在[0.5,1]的区域,作为背景275%IoU在[0.1,0.5)中值较大的区域,作为前景2.3RoI池化层计算RoI池化层在固定的
本文编号:2920789
【文章来源】:中国图象图形学报. 2017年05期 北大核心
【文章页数】:7 页
【部分图文】:
基于视觉任务学习的目标发现方法思想Fig.1Thethoughtofobjectdetectionmethodbasedonvisiontasklearning
Vol.22,No.5,May2017674图2基于FastR-CNN的车辆目标检测流程Fig.2TheprocessofvehicleobjectdetectionbasedonFastR-CNN车辆目标。车辆目标的类型包括小汽车(car)和公交车(bus)。车辆视觉任务确定之后需要采集示例图像构建训练集,采集被测图像构建测试集。被检测的场景图像和目标是与视觉任务强相关的,所以在采集示例图像和被测图像应在相同环境下以相同的方式进行采集。将样本采集地点设定在天桥上,方便采集正面车辆。利用普通相机进行拍摄,相机的变焦保持一致。为了充分训练卷积神经网络上的参数,应采集足够多的图像样本。采集后的图像场景如图3所示。图3数据样本Fig.3Sampledata((a)bus;(b)car)最后对数据集样本进行标定,标定时记录车辆目标左上和右下的坐标值构成矩形框的坐标值v=(vx1,vy1,vx2,vy2)。2.2FastR-CNN的核心过程FastR-CNN的输入,包含3个部分:样本图像、其标定值(groundtruth)、objectproposals。通过计算每个样本图像的标定框与objectproposals的覆盖率,可以得到每个样本图像对应的一组感兴趣区域(RoIs)。每个图像的R个RoIs由表1构成。如图4所示卷积神经网络通过一些卷积层和最大池化层获得样本的卷积特征。然后,RoI池化层对每一个感兴趣区域,从卷积特征中提取出对应的一个规格化的特征向量。所有特征向量将输入全连接层最终将结果共享,产生两个支路,进入两个不同的层中。一个层负责利用softmax回归计算K类目标加一个“背景”类的概率估算值;另一个层负责输出,用来表征每个图像上K类目标的检测框坐标的4个值。表1RoIs的来源Table1RoIssources类别比例方式125%IoU在[0.5,1]的区域,作为背景275%I
eprocessofvehicleobjectdetectionbasedonFastR-CNN车辆目标。车辆目标的类型包括小汽车(car)和公交车(bus)。车辆视觉任务确定之后需要采集示例图像构建训练集,采集被测图像构建测试集。被检测的场景图像和目标是与视觉任务强相关的,所以在采集示例图像和被测图像应在相同环境下以相同的方式进行采集。将样本采集地点设定在天桥上,方便采集正面车辆。利用普通相机进行拍摄,相机的变焦保持一致。为了充分训练卷积神经网络上的参数,应采集足够多的图像样本。采集后的图像场景如图3所示。图3数据样本Fig.3Sampledata((a)bus;(b)car)最后对数据集样本进行标定,标定时记录车辆目标左上和右下的坐标值构成矩形框的坐标值v=(vx1,vy1,vx2,vy2)。2.2FastR-CNN的核心过程FastR-CNN的输入,包含3个部分:样本图像、其标定值(groundtruth)、objectproposals。通过计算每个样本图像的标定框与objectproposals的覆盖率,可以得到每个样本图像对应的一组感兴趣区域(RoIs)。每个图像的R个RoIs由表1构成。如图4所示卷积神经网络通过一些卷积层和最大池化层获得样本的卷积特征。然后,RoI池化层对每一个感兴趣区域,从卷积特征中提取出对应的一个规格化的特征向量。所有特征向量将输入全连接层最终将结果共享,产生两个支路,进入两个不同的层中。一个层负责利用softmax回归计算K类目标加一个“背景”类的概率估算值;另一个层负责输出,用来表征每个图像上K类目标的检测框坐标的4个值。表1RoIs的来源Table1RoIssources类别比例方式125%IoU在[0.5,1]的区域,作为背景275%IoU在[0.1,0.5)中值较大的区域,作为前景2.3RoI池化层计算RoI池化层在固定的
本文编号:2920789
本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/2920789.html