当前位置:主页 > 科技论文 > 网络通信论文 >

基于信息融合的城市自主车辆实时目标识别

发布时间:2021-08-07 19:28
  针对单一传感器感知维度不足、实时性差的问题,提出一种激光雷达与相机融合的城市自主车辆实时目标识别方法。建立两传感器间的坐标变换模型,实现两传感器的像素级匹配。改进yolov3-tiny算法,提高目标检测准确率。对激光雷达点进行体素网格滤波,根据点云坡度进行地面分割。建立聚类半径与距离作用模型,对非地面点云进行聚类。引入图像中包络的思想,获取目标三维边界框以及位姿信息;将视觉目标特征与激光雷达目标特征融合。试验结果表明,改进的yolov3-tiny算法对于城市密集目标具有更高的识别率,雷达算法能够完整的完成三维目标检测以及位姿估计,融合识别系统在准确率、实时性方面达到实际行驶要求。 

【文章来源】:机械工程学报. 2020,56(12)北大核心EICSCD

【文章页数】:9 页

【部分图文】:

基于信息融合的城市自主车辆实时目标识别


传感器布置

分布图,线束,激光雷达,相机


课题组采用40线激光雷达,该激光雷达中间部分线束更加密集,对于远方目标识别效果更优秀,水平角分辨率可根据需求,选择0.2°或0.4°。图1为雷达线束分布图。雷达垂直视野主要由安装高度和倾斜角度决定。结合车辆物理空间的限制以及城市目标识别的特征,确定安装高度H=1.8 m。根据场景的需要,相机选用普通USB相机,像素为640×480,更小的分辨率提高了图像的处理速度。彩色相机安装在顶部激光雷达下,相机的位置尽量水平,以便相机水平角度和旋转近似为0°。

框架图,系统软件,框架,视觉


软件系统以机器人操作系统(Robot operation system,ROS)为基础设计[16]。Tx2嵌入式开发板负责实时处理相机数据,完成视觉目标识别。工控机负责接收原始点云数据,对原始点云数据完成滤波、降采样等预处理任务,然后基于改进DBSCAN聚类,以及基于图像包络的位姿估计获取环境目标的三维信息。最后,基于特征的融合策略完成激光雷达与视觉实时融合的感知。系统软件框架如图3所示。2 配准与同步

【参考文献】:
期刊论文
[1]基于增强Tiny YOLOV3算法的车辆实时检测与跟踪[J]. 刘军,后士浩,张凯,张睿,胡超超.  农业工程学报. 2019(08)
[2]无人车自主定位和障碍物感知的视觉主导多传感器融合方法(英文)[J]. Jian-ru XUE,Di WANG,Shao-yi DU,Di-xiao CUI,Yong HUANG,Nan-ning ZHENG.  Frontiers of Information Technology & Electronic Engineering. 2017(01)
[3]基于雷达测距的车辆识别与跟踪方法[J]. 周俊静,段建民,杨光祖.  汽车工程. 2014(11)



本文编号:3328396

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/wltx/3328396.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户dee03***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com