面向AR-HUD系统的瞳孔空间位置检测技术研究
发布时间:2021-08-11 14:27
针对汽车驾驶员的瞳孔空间位置检测技术一直是智能汽车技术的研究热门。通过检测驾驶员的瞳孔并分析其空间位置的变化,可以获取驾驶员的行为信息,从而为后续的决策系统提供重要的信息来源。该技术在人机交互、驾驶员异常行为检测、AR-HUD等技术领域都有着重要的应用。驾驶员的瞳孔空间位置检测技术可拆分为驾驶员的瞳孔检测技术以及瞳孔空间坐标测量技术。本文分别对瞳孔检测技术与瞳孔的空间坐标测量技术进行了详细的研究,总结了各类算法的优缺点,提出了一种面向AR-HUD系统的瞳孔空间位置检测技术。主要研究内容如下:1.分析现有的人眼检测算法在复杂场景下检测精度不高的缺陷,提出了一种结合多特征级联支持向量机与模板匹配的人眼检测算法。多特征级联支持向量机由两层级联的人眼分类器构成。第一层人眼分类器为HOG特征结合SVM,第二层人眼分类器为LBP特征结合SVM。当级联分类器未检测出人眼时,将历史帧检测出的人眼图像作为模板,通过模板匹配的方式来定位当前帧的人眼位置。实验结果证明本方法相比传统的单特征单分类器,在满足实时性的条件下能取得更高的检测精度。2.分析现有瞳孔精定位算法当中常用的快速径向对称算法只能适应圆形瞳孔...
【文章来源】:重庆邮电大学重庆市
【文章页数】:90 页
【学位级别】:硕士
【图文】:
视线跟踪技术原理图
AR-HUD系统体验图
重庆邮电大学硕士学位论文第1章绪论2位人眼并检测人眼的局部特征,疲劳驾驶检测技术业内最为常用的PRECLOS判据就是依据眼皮的闭合状况来判断驾驶员的疲劳状态[4]。驾驶员异常行为检测也需要准确地定位驾驶员的瞳孔的空间位置并计算出驾驶员的视线方向,以此来判断驾驶员的异常行为类别[5]。AR-HUD是新一代HUD技术,其与AR技术相结合使得驾驶员能在行车环境下看到与真实场景相结合的虚拟图像,不仅丰富了驾驶员的驾驶体验也有效提升了驾驶的安全性,便利性以及娱乐性[6]。图1.2为AR-HUD系统体验图,驾驶员可直接看到与路面相结合的虚拟导航标志,具有最为直观的视觉体验。图1.2AR-HUD系统体验图图1.3AR-HUD系统原理图AR-HUD系统原理图如图1.3所示,驾驶员底部的投射设备即为HUD,HUD投射的光经过前挡风玻璃反射至驾驶员人眼后,驾驶员就会看到前方虚像平面上的图标。传统HUD主要投射诸如速度,油耗等仪表盘的信息,图标处于虚像平面
【参考文献】:
期刊论文
[1]基于HOG和SVM的双眼虹膜图像的人眼定位算法[J]. 晁静静,沈文忠,宋天舒. 计算机工程与应用. 2019(09)
[2]基于瞳孔角膜反射技术的视线估计方法[J]. 胡艳红,魏江,梅少辉. 计算机工程与应用. 2018(14)
[3]基于AR-HUD的汽车驾驶辅助系统设计研究[J]. 李卓,周晓,郑杨硕. 武汉理工大学学报(交通科学与工程版). 2017(06)
[4]基于积分投影和差分投影的人眼定位[J]. 侯向丹,赵丹,刘洪普,顾军华. 计算机工程与科学. 2017(03)
[5]非接触动态实时视线跟踪技术[J]. 王向军,蔡方方,刘峰,李洋. 计算机科学与探索. 2015(03)
[6]一种改进HOG特征的行人检测算法[J]. 田仙仙,鲍泓,徐成. 计算机科学. 2014(09)
[7]基于极坐标的改进灰度积分投影法的人眼检测[J]. 修春波,卢少磊. 计算机工程与应用. 2015(12)
[8]基于HOG特征和SVM的前向车辆识别方法[J]. 李星,郭晓松,郭君斌. 计算机科学. 2013(S2)
[9]单摄像机下基于眼动分析的行为识别[J]. 孟春宁,白晋军,张太宁,刘润蓓,常胜江. 物理学报. 2013(17)
[10]径向对称和圆形霍夫相结合的眼睛状态识别[J]. 向淑兰,犹轶. 光电工程. 2011(05)
博士论文
[1]随机场景人眼检测实时追踪及其应用技术研究[D]. 李斌.中国科学院大学(中国科学院西安光学精密机械研究所) 2018
[2]图像局部特征提取及应用研究[D]. 黄明明.北京科技大学 2016
[3]基于机器视觉的复杂工况下驾驶人疲劳状态检测方法研究[D]. 张波.清华大学 2015
硕士论文
[1]SLAM中图像特征匹配算法研究及其硬件实现[D]. 何茜.西安理工大学 2019
[2]基于改进LBP算子的图像纹理分类研究[D]. 高攀.西南交通大学 2018
[3]基于人眼定位的单目测距方法及ARM平台实现[D]. 李贤辉.深圳大学 2017
[4]基于尺度不变局部特征的图像匹配方法研究[D]. 张磊.武汉理工大学 2017
[5]基于径向对称的限速标志检测与识别[D]. 祝磊.哈尔滨工业大学 2017
[6]基于多图像特征金字塔的车辆检测[D]. 曹晓明.北京交通大学 2016
[7]虹膜图像预处理及特征编码方法的研究[D]. 杨晓生.北京交通大学 2016
[8]基于计算机视觉的疲劳驾驶检测技术研究[D]. 蒋文博.北京化工大学 2015
[9]基于相关滤波器的目标跟踪技术[D]. 董艳梅.北京理工大学 2015
[10]基于径向对称变换的虹膜定位算法[D]. 宋惠.东北大学 2013
本文编号:3336324
【文章来源】:重庆邮电大学重庆市
【文章页数】:90 页
【学位级别】:硕士
【图文】:
视线跟踪技术原理图
AR-HUD系统体验图
重庆邮电大学硕士学位论文第1章绪论2位人眼并检测人眼的局部特征,疲劳驾驶检测技术业内最为常用的PRECLOS判据就是依据眼皮的闭合状况来判断驾驶员的疲劳状态[4]。驾驶员异常行为检测也需要准确地定位驾驶员的瞳孔的空间位置并计算出驾驶员的视线方向,以此来判断驾驶员的异常行为类别[5]。AR-HUD是新一代HUD技术,其与AR技术相结合使得驾驶员能在行车环境下看到与真实场景相结合的虚拟图像,不仅丰富了驾驶员的驾驶体验也有效提升了驾驶的安全性,便利性以及娱乐性[6]。图1.2为AR-HUD系统体验图,驾驶员可直接看到与路面相结合的虚拟导航标志,具有最为直观的视觉体验。图1.2AR-HUD系统体验图图1.3AR-HUD系统原理图AR-HUD系统原理图如图1.3所示,驾驶员底部的投射设备即为HUD,HUD投射的光经过前挡风玻璃反射至驾驶员人眼后,驾驶员就会看到前方虚像平面上的图标。传统HUD主要投射诸如速度,油耗等仪表盘的信息,图标处于虚像平面
【参考文献】:
期刊论文
[1]基于HOG和SVM的双眼虹膜图像的人眼定位算法[J]. 晁静静,沈文忠,宋天舒. 计算机工程与应用. 2019(09)
[2]基于瞳孔角膜反射技术的视线估计方法[J]. 胡艳红,魏江,梅少辉. 计算机工程与应用. 2018(14)
[3]基于AR-HUD的汽车驾驶辅助系统设计研究[J]. 李卓,周晓,郑杨硕. 武汉理工大学学报(交通科学与工程版). 2017(06)
[4]基于积分投影和差分投影的人眼定位[J]. 侯向丹,赵丹,刘洪普,顾军华. 计算机工程与科学. 2017(03)
[5]非接触动态实时视线跟踪技术[J]. 王向军,蔡方方,刘峰,李洋. 计算机科学与探索. 2015(03)
[6]一种改进HOG特征的行人检测算法[J]. 田仙仙,鲍泓,徐成. 计算机科学. 2014(09)
[7]基于极坐标的改进灰度积分投影法的人眼检测[J]. 修春波,卢少磊. 计算机工程与应用. 2015(12)
[8]基于HOG特征和SVM的前向车辆识别方法[J]. 李星,郭晓松,郭君斌. 计算机科学. 2013(S2)
[9]单摄像机下基于眼动分析的行为识别[J]. 孟春宁,白晋军,张太宁,刘润蓓,常胜江. 物理学报. 2013(17)
[10]径向对称和圆形霍夫相结合的眼睛状态识别[J]. 向淑兰,犹轶. 光电工程. 2011(05)
博士论文
[1]随机场景人眼检测实时追踪及其应用技术研究[D]. 李斌.中国科学院大学(中国科学院西安光学精密机械研究所) 2018
[2]图像局部特征提取及应用研究[D]. 黄明明.北京科技大学 2016
[3]基于机器视觉的复杂工况下驾驶人疲劳状态检测方法研究[D]. 张波.清华大学 2015
硕士论文
[1]SLAM中图像特征匹配算法研究及其硬件实现[D]. 何茜.西安理工大学 2019
[2]基于改进LBP算子的图像纹理分类研究[D]. 高攀.西南交通大学 2018
[3]基于人眼定位的单目测距方法及ARM平台实现[D]. 李贤辉.深圳大学 2017
[4]基于尺度不变局部特征的图像匹配方法研究[D]. 张磊.武汉理工大学 2017
[5]基于径向对称的限速标志检测与识别[D]. 祝磊.哈尔滨工业大学 2017
[6]基于多图像特征金字塔的车辆检测[D]. 曹晓明.北京交通大学 2016
[7]虹膜图像预处理及特征编码方法的研究[D]. 杨晓生.北京交通大学 2016
[8]基于计算机视觉的疲劳驾驶检测技术研究[D]. 蒋文博.北京化工大学 2015
[9]基于相关滤波器的目标跟踪技术[D]. 董艳梅.北京理工大学 2015
[10]基于径向对称变换的虹膜定位算法[D]. 宋惠.东北大学 2013
本文编号:3336324
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3336324.html
最近更新
教材专著