人眼视觉信息检测关键技术研究
发布时间:2021-09-28 08:11
眼睛是人类最主要的感觉器官,相对于嘴、鼻子,人脸面部区域中眼睛具有显著特征。研究眼睛及其运动是了解人类视觉信息的重要手段。本文针对人眼视觉信息检测的关键技术,研究了人眼检测、虹膜中心定位、视线跟踪、视线注视辨识与人-机器人交互中视线姿势内容,具体研究内容如下:1.针对目前人眼检测方法没有充分考虑人脸佩戴眼镜、不同人眼状态(半闭合、闭合和眯眼等)、面部旋转和不同亮度条件下的人眼检测问题,提出了一种混合人眼检测方法。利用人眼区域灰度变化比人脸其他区域灰度变化明显的特征,采用图像二阶矩表征图像灰度的变化,建立人眼方差滤波器(EVF),用于获取人眼候选图像。然后利用建立的支持向量机人眼分类器确定人眼位置,训练SVM过程中,使用主成分分析法(PCA)对人眼图像中的特征进行降维和提取,提高了SVM分类器的性能,为了有效确定SVM分类器的参数,使用遗传算法进行参数寻优。所提出的人眼检测方法对IMM、BioID和FERET人脸数据库进行了人眼检测测试,取得了97.0%的平均人眼检测正确率。2.针对目前虹膜中心检测法没有充分考虑虹膜在人眼区域内左和右位置状态,导致虹膜中心定位精度下降的问题,提出了一种主...
【文章来源】:北京理工大学北京市 211工程院校 985工程院校
【文章页数】:148 页
【学位级别】:博士
【文章目录】:
摘要
Abstract
第1章 绪论
1.1 研究背景及意义
1.2 眼睛结构与眼睛运动
1.3 国内外研究现状与发展趋势
1.3.1 人眼检测方法
1.3.2 人眼中心定位方法
1.3.3 眼动跟踪研究
1.3.4 眼动数据辨识方法
1.3.5 基于视线控制的人机交互
1.4 本文的主要工作及内容安排
第2章 人眼检测方法研究
2.1 引言
2.2 人眼图像数据库建立
2.3 人眼方差滤波器
2.3.1 人眼方差图像
2.3.2 方差滤波器
2.4 支持向量机人眼分类器
2.4.1 支持向量机
2.4.2 主成分分析
2.4.3 基于遗传算法参数寻优
2.5 人眼检测流程
2.6 实验结果与分析
2.6.1 人眼检测评估
2.6.2 面部旋转和光照变化下的人眼检测评估
2.6.3 人眼闭合状态下的人眼检测效果
2.6.4 支持向量机参数分析
2.7 本章小结
第3章 虹膜中心定位方法研究
3.1 引言
3.2 虹膜中心定位流程
3.2.1 直方图均衡化
3.2.2 虹膜中心粗定位
3.2.3 眼角定位
3.3 虹膜中心提取
3.3.1 虹膜边界选择模型
3.3.2 虹膜边界提取算法
3.3.3 虹膜中心定位
3.4 实验结果与分析
3.4.1 人眼图像数据库建立
3.4.2 虹膜中心定位评估方法
3.4.3 粗虹膜中心定位评估
3.4.4 真实虹膜中心定位评估
3.4.5 性能比较
3.5 本章小结
第4章 可见光源下单摄像机视线跟踪技术研究
4.1 引言
4.2 实时人眼检测
4.2.1 双阈值二值化
4.2.2 耀点形状滤波
4.2.3 耀点位置滤波
4.2.4 人眼图像独立成分分析模型
4.2.5 独立成分分析基向量估计
4.2.6 人眼区域确定
4.2.7 人眼实时检测性能测试与比较
4.3 特征提取
4.4 视线估计
4.4.1 2D插值视线估计
4.4.2 头部运动下的视线估计
4.4.3 视线点修正
4.5 实时视线注视辨识
4.5.1 基于速度阈值辨识算法
4.5.2 基于离散度阈值辨识算法
4.5.3 基于速度与数据离散度辨识算法
4.6 实验结果与分析
4.6.1 系统硬件组成
4.6.2 性能表现与比较
4.7 本章小结
第5章 视线注视辨识研究
5.1 引言
5.2 空间-时间轨迹聚类算法
5.2.1 基本概念
5.2.2 空间-时间轨迹聚类算法的实现
5.3 离散度阈值寻优
5.4 实验数据
5.4.1 实验设备和实验条件
5.4.2 实验过程
5.5 实验结果与分析
5.5.1 人眼注视辨识评估方法
5.5.2 注视辨识评估
5.5.3 多噪声点下辨识算法的性能评估
5.5.4 变采样率下辨识算法的性能评估
5.6 最优离散度阈值分析
5.7 本章小结
第6章 基于视线姿势的人-机器人交互控制系统
6.1 引言
6.2 基于视线的人-机器人交互技术
6.3 视线姿势基本概念
6.4 基于视线姿势的Drone命令设计
6.5 基于视线姿势的人-机器人交互系统的实验设备
6.6 基于视线姿势的Drone实验
6.6.1 驻足时间策略
6.6.2 任务设计
6.6.3 控制命令学习
6.6.4 实验过程
6.7 实验结果与分析
6.7.1 任务平均完成时间
6.7.2 任务平均错误数
6.7.3 受试者感知评估
6.7.4 视线姿势与驻足时间比较
6.8 本章小结
第7章 总结与展望
7.1 主要研究工作
7.2 研究的创新点
7.3 研究展望
附录A
附录B
参考文献
攻读学位期间发表论文与研究成果清单
致谢
本文编号:3411550
【文章来源】:北京理工大学北京市 211工程院校 985工程院校
【文章页数】:148 页
【学位级别】:博士
【文章目录】:
摘要
Abstract
第1章 绪论
1.1 研究背景及意义
1.2 眼睛结构与眼睛运动
1.3 国内外研究现状与发展趋势
1.3.1 人眼检测方法
1.3.2 人眼中心定位方法
1.3.3 眼动跟踪研究
1.3.4 眼动数据辨识方法
1.3.5 基于视线控制的人机交互
1.4 本文的主要工作及内容安排
第2章 人眼检测方法研究
2.1 引言
2.2 人眼图像数据库建立
2.3 人眼方差滤波器
2.3.1 人眼方差图像
2.3.2 方差滤波器
2.4 支持向量机人眼分类器
2.4.1 支持向量机
2.4.2 主成分分析
2.4.3 基于遗传算法参数寻优
2.5 人眼检测流程
2.6 实验结果与分析
2.6.1 人眼检测评估
2.6.2 面部旋转和光照变化下的人眼检测评估
2.6.3 人眼闭合状态下的人眼检测效果
2.6.4 支持向量机参数分析
2.7 本章小结
第3章 虹膜中心定位方法研究
3.1 引言
3.2 虹膜中心定位流程
3.2.1 直方图均衡化
3.2.2 虹膜中心粗定位
3.2.3 眼角定位
3.3 虹膜中心提取
3.3.1 虹膜边界选择模型
3.3.2 虹膜边界提取算法
3.3.3 虹膜中心定位
3.4 实验结果与分析
3.4.1 人眼图像数据库建立
3.4.2 虹膜中心定位评估方法
3.4.3 粗虹膜中心定位评估
3.4.4 真实虹膜中心定位评估
3.4.5 性能比较
3.5 本章小结
第4章 可见光源下单摄像机视线跟踪技术研究
4.1 引言
4.2 实时人眼检测
4.2.1 双阈值二值化
4.2.2 耀点形状滤波
4.2.3 耀点位置滤波
4.2.4 人眼图像独立成分分析模型
4.2.5 独立成分分析基向量估计
4.2.6 人眼区域确定
4.2.7 人眼实时检测性能测试与比较
4.3 特征提取
4.4 视线估计
4.4.1 2D插值视线估计
4.4.2 头部运动下的视线估计
4.4.3 视线点修正
4.5 实时视线注视辨识
4.5.1 基于速度阈值辨识算法
4.5.2 基于离散度阈值辨识算法
4.5.3 基于速度与数据离散度辨识算法
4.6 实验结果与分析
4.6.1 系统硬件组成
4.6.2 性能表现与比较
4.7 本章小结
第5章 视线注视辨识研究
5.1 引言
5.2 空间-时间轨迹聚类算法
5.2.1 基本概念
5.2.2 空间-时间轨迹聚类算法的实现
5.3 离散度阈值寻优
5.4 实验数据
5.4.1 实验设备和实验条件
5.4.2 实验过程
5.5 实验结果与分析
5.5.1 人眼注视辨识评估方法
5.5.2 注视辨识评估
5.5.3 多噪声点下辨识算法的性能评估
5.5.4 变采样率下辨识算法的性能评估
5.6 最优离散度阈值分析
5.7 本章小结
第6章 基于视线姿势的人-机器人交互控制系统
6.1 引言
6.2 基于视线的人-机器人交互技术
6.3 视线姿势基本概念
6.4 基于视线姿势的Drone命令设计
6.5 基于视线姿势的人-机器人交互系统的实验设备
6.6 基于视线姿势的Drone实验
6.6.1 驻足时间策略
6.6.2 任务设计
6.6.3 控制命令学习
6.6.4 实验过程
6.7 实验结果与分析
6.7.1 任务平均完成时间
6.7.2 任务平均错误数
6.7.3 受试者感知评估
6.7.4 视线姿势与驻足时间比较
6.8 本章小结
第7章 总结与展望
7.1 主要研究工作
7.2 研究的创新点
7.3 研究展望
附录A
附录B
参考文献
攻读学位期间发表论文与研究成果清单
致谢
本文编号:3411550
本文链接:https://www.wllwen.com/shoufeilunwen/xxkjbs/3411550.html