基于单目视觉的智能车路口实时定位方法
发布时间:2021-02-01 19:11
为解决智能车在路口的高精度实时定位问题,基于单目视觉,提出一种路口实时定位方法。对需要定位的路口进行编号并建立路口场景特征库,采用路口场景识别的方法进行路口粗定位,通过路口图像中的停止线检测与测距以及车道线检测计算车辆航向角和偏移距离,综合距离、航向角和偏移距离进行位置坐标计算。在真实道路环境的路口测试结果表明,提出的定位方法具有精度高、实时性好、鲁棒性强的优点,适合于智能车路口视觉导航。
【文章来源】:计算机工程. 2017,43(09)北大核心
【文章页数】:12 页
【部分图文】:
路口定位算法流程
持高斯核与近似高斯核的一致性。w=Lxy(1.2)FDyy(9)FLyy(1.2)FDxy(9)F=0.912≈0.9(3)其中,xF是Frobenius范数。与SIFT特征类似,在特征点周围取一个正方形框,将该框分为16个子区域,每个子区域统计25个像素的水平方向和垂直方向的Haar小波特征。该Haar小波特征为水平方向值之和、水平方向绝对值之和、垂直方向之和、垂直方向绝对值之和。这样每个小区域就有4个值,所以每个特征点就是16×4=64维的向量,相比SIFT少了一半,这将加快匹配速度。3)路口场景特征库构建如图2所示,路口场景特征库包含了所有测试路口的场景图像特征信息、路口编号信息以及路口属性信息。从图中还可知路口场景特征库内部是一个多对多的结构,每个路口一个编号,对应一个路口属性,同时对应许多的路口场景图片以及其SURF特征。路口属性是可扩展的结构,可以对路口进行描述,有利于高精度定位。场景图像进行SURF特征提取之后可以得到每一帧图像的SURF特征向量,将其保存用于在线的图像特征匹配,这样就可以加快匹配速度。而路口场景图片仅用于路口场景识别结果的显示,在实际应用中为了减小路口场景特征库的存储空间可以不保存图片而仅保存每帧路口场景图像的SURF特征以及路口编号、属性等信息。图2路口场景特征库2.1.2基于SURF的快速路口场景识别从算法流程图中可知,路口场景识别与路口场景特征库建立的过程基本上相同,都需要对图像进行SUFT特征提取生成特征向量。路口场景识别是一个在线特征提取的过程,提取当前帧图像的SURF特征,生成特征向量,与路口场景特征库中的特征向量进行相似度计算,本文采用的是最简单的欧式距离来衡量其相似度,计算公式如下:ΔD=dis(vi,vj)=∑
IPM的高精度实时定位。从图1的算法流程图中可以看到基于IPM的高精度实时定位由4个部分核心内容组成:1)对单目摄像机采集的路口图像进行逆透视映射,得到与世界路面坐标系一致的逆透视图像;2)在逆透视图像上进行停止线检测,并计算智能车里停止线的距离;3)车道线检测,提取当前车道的左右车道线,计算智能车横向偏离距离以及其航向角;4)根据纵向距离、横向距离以及航向角等结果,利用几何关系计算智能车在世界坐标系下的精确位置坐标。2.2.1逆透视映射IPM是指将透视图像通过变换矩阵转成逆透视图像的一个过程,如图3所示。图3逆透视映射过程将透视图像转换成逆透视时需要一个转换矩阵,即单应性矩阵,习惯用H表示单应性矩阵,H是一个3×3的矩阵。H=x11x12x13x21x22x23x31x321(7)假设透视图像坐标系中某个点表示为Q(x,y,1),通过逆透视映射将点Q映射到逆透视图像中为点P(X,Y,1),那么可以定义矩阵:Q~=[xy1]T(8)P~=[XY1]T(9)逆透视映射公式为:P~=HQ~(10)即:XY1=x11x12x13x21x22x23x31x321·xy1(11)根据式(11)可得H的求解公式为:H=x11x12x13x21x22x23x31x321=XY1·xy1-1(12)根据式(12)可知,H矩阵内有8个未知数,求解291
【参考文献】:
期刊论文
[1]影响无源定位精度的多种误差原因分析[J]. 李东海. 现代雷达. 2016(05)
[2]一种基于IPM-DVS的车道线检测算法[J]. 郑永荣,袁家政,刘宏哲. 北京联合大学学报(自然科学版). 2015(02)
[3]一种改进的图像场景识别算法[J]. 申龙斌,李臻,魏志强,刘昊. 中国海洋大学学报(自然科学版). 2015(04)
[4]基于扩展卡尔曼滤波器的车道线检测算法[J]. 彭红,肖进胜,程显,李必军,宋晓. 光电子·激光. 2015(03)
[5]无人驾驶汽车社会效益与影响分析[J]. 潘建亮. 汽车工业研究. 2014(05)
[6]无人驾驶汽车的发展现状和展望[J]. 杨帆. 上海汽车. 2014(03)
[7]高精度高鲁棒性的轨道机器人全局定位方法[J]. 唐恒博,陈卫东,王景川,刘帅,李国波,赵洪丹. 机器人. 2013(05)
[8]基于方向边缘匹配的人行横道与停止线检测[J]. 谢锦,蔡自兴,李昭,尤作. 计算机工程. 2013(06)
[9]用于行星探测车定位的视觉测程新方法[J]. 邸凯昌,万文辉,刘召芹. 遥感学报. 2013(01)
[10]综合结构和纹理特征的场景识别[J]. 周莉,胡德文,周宗潭. 中国科学:信息科学. 2012(06)
博士论文
[1]高精度实时视觉定位的关键技术研究[D]. 卢维.浙江大学 2015
硕士论文
[1]无人驾驶车GPS自主导航系统设计与实现[D]. 郭俊杰.长安大学 2014
[2]基于图的无人驾驶车即时定位与地图构建[D]. 祝天健.大连理工大学 2013
本文编号:3013282
【文章来源】:计算机工程. 2017,43(09)北大核心
【文章页数】:12 页
【部分图文】:
路口定位算法流程
持高斯核与近似高斯核的一致性。w=Lxy(1.2)FDyy(9)FLyy(1.2)FDxy(9)F=0.912≈0.9(3)其中,xF是Frobenius范数。与SIFT特征类似,在特征点周围取一个正方形框,将该框分为16个子区域,每个子区域统计25个像素的水平方向和垂直方向的Haar小波特征。该Haar小波特征为水平方向值之和、水平方向绝对值之和、垂直方向之和、垂直方向绝对值之和。这样每个小区域就有4个值,所以每个特征点就是16×4=64维的向量,相比SIFT少了一半,这将加快匹配速度。3)路口场景特征库构建如图2所示,路口场景特征库包含了所有测试路口的场景图像特征信息、路口编号信息以及路口属性信息。从图中还可知路口场景特征库内部是一个多对多的结构,每个路口一个编号,对应一个路口属性,同时对应许多的路口场景图片以及其SURF特征。路口属性是可扩展的结构,可以对路口进行描述,有利于高精度定位。场景图像进行SURF特征提取之后可以得到每一帧图像的SURF特征向量,将其保存用于在线的图像特征匹配,这样就可以加快匹配速度。而路口场景图片仅用于路口场景识别结果的显示,在实际应用中为了减小路口场景特征库的存储空间可以不保存图片而仅保存每帧路口场景图像的SURF特征以及路口编号、属性等信息。图2路口场景特征库2.1.2基于SURF的快速路口场景识别从算法流程图中可知,路口场景识别与路口场景特征库建立的过程基本上相同,都需要对图像进行SUFT特征提取生成特征向量。路口场景识别是一个在线特征提取的过程,提取当前帧图像的SURF特征,生成特征向量,与路口场景特征库中的特征向量进行相似度计算,本文采用的是最简单的欧式距离来衡量其相似度,计算公式如下:ΔD=dis(vi,vj)=∑
IPM的高精度实时定位。从图1的算法流程图中可以看到基于IPM的高精度实时定位由4个部分核心内容组成:1)对单目摄像机采集的路口图像进行逆透视映射,得到与世界路面坐标系一致的逆透视图像;2)在逆透视图像上进行停止线检测,并计算智能车里停止线的距离;3)车道线检测,提取当前车道的左右车道线,计算智能车横向偏离距离以及其航向角;4)根据纵向距离、横向距离以及航向角等结果,利用几何关系计算智能车在世界坐标系下的精确位置坐标。2.2.1逆透视映射IPM是指将透视图像通过变换矩阵转成逆透视图像的一个过程,如图3所示。图3逆透视映射过程将透视图像转换成逆透视时需要一个转换矩阵,即单应性矩阵,习惯用H表示单应性矩阵,H是一个3×3的矩阵。H=x11x12x13x21x22x23x31x321(7)假设透视图像坐标系中某个点表示为Q(x,y,1),通过逆透视映射将点Q映射到逆透视图像中为点P(X,Y,1),那么可以定义矩阵:Q~=[xy1]T(8)P~=[XY1]T(9)逆透视映射公式为:P~=HQ~(10)即:XY1=x11x12x13x21x22x23x31x321·xy1(11)根据式(11)可得H的求解公式为:H=x11x12x13x21x22x23x31x321=XY1·xy1-1(12)根据式(12)可知,H矩阵内有8个未知数,求解291
【参考文献】:
期刊论文
[1]影响无源定位精度的多种误差原因分析[J]. 李东海. 现代雷达. 2016(05)
[2]一种基于IPM-DVS的车道线检测算法[J]. 郑永荣,袁家政,刘宏哲. 北京联合大学学报(自然科学版). 2015(02)
[3]一种改进的图像场景识别算法[J]. 申龙斌,李臻,魏志强,刘昊. 中国海洋大学学报(自然科学版). 2015(04)
[4]基于扩展卡尔曼滤波器的车道线检测算法[J]. 彭红,肖进胜,程显,李必军,宋晓. 光电子·激光. 2015(03)
[5]无人驾驶汽车社会效益与影响分析[J]. 潘建亮. 汽车工业研究. 2014(05)
[6]无人驾驶汽车的发展现状和展望[J]. 杨帆. 上海汽车. 2014(03)
[7]高精度高鲁棒性的轨道机器人全局定位方法[J]. 唐恒博,陈卫东,王景川,刘帅,李国波,赵洪丹. 机器人. 2013(05)
[8]基于方向边缘匹配的人行横道与停止线检测[J]. 谢锦,蔡自兴,李昭,尤作. 计算机工程. 2013(06)
[9]用于行星探测车定位的视觉测程新方法[J]. 邸凯昌,万文辉,刘召芹. 遥感学报. 2013(01)
[10]综合结构和纹理特征的场景识别[J]. 周莉,胡德文,周宗潭. 中国科学:信息科学. 2012(06)
博士论文
[1]高精度实时视觉定位的关键技术研究[D]. 卢维.浙江大学 2015
硕士论文
[1]无人驾驶车GPS自主导航系统设计与实现[D]. 郭俊杰.长安大学 2014
[2]基于图的无人驾驶车即时定位与地图构建[D]. 祝天健.大连理工大学 2013
本文编号:3013282
本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/3013282.html