无人车自主定位和障碍物感知的视觉主导多传感器融合方法(英文)
本文选题:视觉感知 + 自主定位 ; 参考:《Frontiers of Information Technology & Electronic Engineering》2017年01期
【摘要】:人类驾驶与自主驾驶在对交通环境的理解方式上有着明显差别。首先,人主要通过视觉来理解交通场景,而机器感知需要融合多种异构的传感信息才能保证行车安全。其次,一个熟练的驾驶员可以轻松适应各种动态交通环境,但现有的机器感知系统却会经常输出有噪声的感知结果,而自主驾驶要求感知结果近乎100%准确。本文提出了一种用于无人车交通环境感知的视觉主导的多传感器融合计算框架,通过几何和语义约束融合来自相机、激光雷达(LIDAR)及地理信息系统(GIS)的信息,为无人车提供高精度的自主定位和准确鲁棒的障碍物感知,并进一步讨论了已成功集成到上述框架内的鲁棒的视觉算法,主要包括从训练数据收集、传感器数据处理、低级特征提取到障碍物识别和环境地图创建等多个层次的视觉算法。所提出的框架里已用于自主研发的无人车,并在各种真实城区环境中进行了长达八年的实地测试,实验结果验证了视觉主导的多传感融合感知框架的鲁棒性和高效性。
[Abstract]:There are obvious differences between human driving and autonomous driving in understanding the traffic environment. Firstly, people mainly understand traffic scenes through vision, and machine perception needs to fuse various heterogeneous sensing information to ensure traffic safety. Secondly, a skilled driver can easily adapt to a variety of dynamic traffic environments, but the existing machine sensing system often outputs noisy results, and autonomous driving requires that the sensing results are nearly 100% accurate. In this paper, a visual dominant multi-sensor fusion computing framework for traffic environment perception of unmanned vehicles is proposed. The information from camera, lidar and GIS is fused by geometric and semantic constraints. This paper provides high precision autonomous positioning and accurate robust obstacle sensing for unmanned vehicles, and further discusses the robust visual algorithms which have been successfully integrated into the above framework, mainly including training data collection, sensor data processing, and so on. Low-level feature extraction to obstacle recognition and environment map creation and other multi-level visual algorithms. The proposed framework has been used for self-developed unmanned vehicles and has been tested in various real urban environments for up to eight years. The experimental results verify the robustness and efficiency of the vision-led multi-sensor fusion sensing framework.
【作者单位】: Lab
【基金】:supported by the National Key Program Project of China(No.2016YFB1001004) the National Natural Science Foundation of China(Nos.91320301 and 61273252)
【分类号】:TP391.41;TP212
【相似文献】
相关期刊论文 前10条
1 戴萧嫣;韩焱;;基于频分模式的水声自主定位[J];微计算机信息;2008年01期
2 洪炳昒,罗荣华;一种鲁棒移动机器人自主定位方法[J];哈尔滨工业大学学报;2003年09期
3 彭兰;;一种深海采矿车自主定位系统研究[J];现代制造工程;2009年04期
4 马献德;陈强;孙振国;张文增;;具有自主定位功能的水轮机叶片坑内修焊机器人[J];焊接学报;2012年08期
5 付燕;董绪荣;;基于星间相对测距的卫星自主定位[J];全球定位系统;2005年06期
6 郑润芳;张海;;STM32的小车自主定位与控制系统设计[J];单片机与嵌入式系统应用;2013年09期
7 张磊;蒋刚;肖志峰;叶登金;;MEMS陀螺与编码器在机器人自主定位中的应用[J];机械设计与制造;2011年09期
8 蒋惠萍;杨国胜;;全景图像拼接的网络化感知节点自主定位系统[J];计算机工程与应用;2012年08期
9 方新秋;何杰;张斌;郭敏江;;无人工作面采煤机自主定位系统[J];西安科技大学学报;2008年02期
10 ;[J];;年期
相关会议论文 前2条
1 曾庆化;Andrew H.Kemp;刘建业;;集装箱实时自主定位系统(RIPS)可行性研究(英文)[A];2009年中国智能自动化会议论文集(第二分册)[C];2009年
2 陈正捷;古丛;熊金洲;;应用UWB技术实现区域自主定位初探[A];全国第一届信号处理学术会议暨中国高科技产业化研究会信号处理分会筹备工作委员会第三次工作会议专刊[C];2007年
相关重要报纸文章 前2条
1 姚强;GPS“2.0版”:自主定位180天[N];中国航天报;2014年
2 本报记者 温维健;在哪儿都能找到你[N];中国纺织报;2013年
相关硕士学位论文 前9条
1 罗彬;基于运动传感器的人员自主定位技术研究[D];上海交通大学;2015年
2 马明;基于可佩带传感器的人员自主定位技术研究[D];国防科学技术大学;2013年
3 韩同辉;大型运载车平台自主定位关键技术研究[D];上海交通大学;2012年
4 刘e,
本文编号:2043082
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2043082.html