当前位置:主页 > 文艺论文 > 广告艺术论文 >

面向移动设备人机交互的眼动跟踪系统

发布时间:2018-03-20 01:11

  本文选题:眼动跟踪 切入点:移动设备 出处:《浙江工业大学》2016年硕士论文 论文类型:学位论文


【摘要】:眼动跟踪技术可分析、记录用户的注视点坐标,在心理学、广告评测和人机交互等领域已得到广泛的应用。随着机器视觉、图像处理技术的快速发展和硬件水平的飞速提升,眼动跟踪技术也逐渐在移动设备上得到应用。然而由于受到移动设备硬件水平的限制,例如自带摄像头像素较低,处理器的性能远落后于个人电脑等问题,面向移动设备的眼动跟踪技术依然存在计算效率低下、跟踪误差较大等问题。为了实现面向移动设备人机交互的眼动跟踪系统,本文提出改进的眼动跟踪技术,并针对相关的人机交互应用进行了研究,主要内容如下:(1)面向移动设备眼动跟踪的图像处理技术研究。由于移动设备硬件资源匮乏,其眼动跟踪的计算效率较低,对眼动跟踪效果影响较大。为此,通过逐层缩小图像处理范围的方法,提高图像处理计算效率。首先使用改进的局部二值特征级联分类器对移动设备前置摄像头捕获的图像进行人脸检测,判断并提取人脸区域;然后通过计算人脸区域的相对位置得到人眼预选取区域,并针对该区域使用Haar特征级联分类器进行人眼检测,判断并提取人眼区域。(2)面向移动设备眼动跟踪的注视点计算方法研究。由于人眼区域检测存在偏差等情况,提取人眼区域后将该区域的各边进行适当的扩展得到精确人眼预选区域(包含完整的人眼轮廓,但相较人眼预选取区域更为精确排除头发、眉毛等干扰物),随后使用二值化和轮廓提取的方法得到更为精准的人眼图像外接矩形和虹膜与上眼睑连通区域轮廓,并计算得到人眼图像外接矩形中心(eye center,EC),以及虹膜与上眼睑连通区域轮廓的重心(centre of gravity,CG)。进而建立人眼图像外接矩形中心指向虹膜与上眼睑连通区域轮廓重心的向量(EC-CG向量)。最后通过标定方法,拟合EC-CG向量与注视点的映射关系,实现注视点的准确计算。(3)基于移动设备眼动跟踪的人机交互应用研究。设计与开发了基于智能手机的眼动跟踪原型系统,该系统可以准确、高效的获取用户眼动数据。在此基础上,对眼动数据进行可视化处理与分析,绘制眼动数据热区图、感兴趣区域(Area of Interest,AOI)重点标记图、感兴趣区域之间的视线转换关系图。最后以智能手机上的图片广告为例,应用上述眼动数据可视化方法,实现多用户之间眼动数据可视化结果的分享。本文针对眼动跟踪精度和应用原型系统进行了用户测试。眼动跟踪精度测试结果显示,本文的眼动跟踪精度为2.80°~3.56°,眼动跟踪平均处理速度为6.01帧/s,可见本文系统具有较好的实时性和较高的精度,对眼动跟踪在移动设备的应用和推广有积极的推动作用。应用原形系统用户测试表明,通过眼动数据可视化结果的分享,有效提高了新手用户对图片广告上信息的查看效率和理解水平,进一步验证了本文所提眼动跟踪技术以及人机交互应用的实用性和有效性。
[Abstract]:Eye tracking has been widely used in psychology, advertising evaluation, human-computer interaction and so on. With the rapid development of machine vision, image processing technology and the rapid improvement of hardware level, eye tracking technology can be used to analyze, record the coordinate of the user's fixation points, and have been widely used in the fields of psychology, advertising evaluation and human-computer interaction. Eye tracking technology is also gradually being used in mobile devices. However, due to the limitations of the hardware level of mobile devices, such as the low pixel of the camera itself, the performance of the processor lags far behind that of the personal computer. Eye tracking technology for mobile devices still has some problems, such as low computing efficiency and large tracking error. In order to realize eye tracking system for man-machine interaction of mobile devices, an improved eye tracking technology is proposed in this paper. The main contents are as follows: 1) Image processing technology for eye tracking in mobile devices. Due to the lack of hardware resources of mobile devices, the computing efficiency of eye tracking is low. It has a great effect on eye movement tracking. Therefore, by reducing the range of image processing layer by layer, Firstly, the improved local binary feature cascade classifier is used to detect the face of the image captured by the front camera of the mobile device, to judge and extract the face region. Then the human eye pre-selected region is obtained by calculating the relative position of the human face region, and the human eye detection is carried out by using the Haar feature cascade classifier for the region. To judge and extract the human eye region. 2) Research on the calculation method of fixed point for eye movement tracking of mobile devices. Because of the deviation of human eye region detection, After extracting the human eye region and extending each side of the region properly, the precise human eye pre-selected area is obtained (including the complete human eye contour, but the hair is excluded more accurately than the human eye pre-selected area. The obliterated objects such as eyebrows were then used to obtain the contour of the outer rectangle and iris connected to the upper eyelid by using the method of binarization and contour extraction. The center of gravity of the contour of the connected area between the iris and the upper eyelid and the center of gravity of the contour of the connected area between the iris and the upper eyelid are calculated. Furthermore, the vector of the center of gravity of the external rectangular center of the eye image pointing to the center of gravity of the contour of the iris and the upper eyelid is established. Finally, through the calibration method, Fitting the mapping relationship between EC-CG vector and fixation point, realizing the accurate calculation of fixation point.) the research of human-computer interaction application based on mobile device eye movement tracking is carried out. A prototype system of eye movement tracking based on smart phone is designed and developed, and the system can be accurate. On the basis of this, visualize and analyze the eye movement data, draw the hot zone map of eye movement data, and draw the key mark map of area of interest. Finally, take the picture advertisement on the smartphone as an example, apply the above method to visualize the eye movement data. In this paper, the user test of eye movement tracking accuracy and application prototype system is carried out, and the result of eye movement tracking precision test shows that, The accuracy of eye tracking is 2.80 掳/ 3.56 掳and the average processing speed of eye tracking is 6.01 frame / s. It has a positive effect on the application and popularization of eye movement tracking in mobile devices. The user test of the prototype system shows that through the sharing of visual results of eye movement data, It can effectively improve the efficiency and understanding level of the new users to view the information on the image advertisement, and further verify the practicability and effectiveness of the eye movement tracking technology and the human-computer interaction application mentioned in this paper.
【学位授予单位】:浙江工业大学
【学位级别】:硕士
【学位授予年份】:2016
【分类号】:TP391.41

【相似文献】

相关期刊论文 前10条

1 刘丽娟;刘泓;国伦书;张韶华;;以人机交互实施人本教学的探索[J];科技咨询导报;2007年09期

2 马荟;;连接未来的人机交互[J];互联网周刊;2010年07期

3 张毅;刘娇;罗元;;基于唇形的人机交互系统研究及其应用[J];计算机教育;2012年18期

4 ;人机交互的进化与未来[J];互联网周刊;2014年Z1期

5 TURKMatthew;感知媒体——机器感知与人机交互(英文)[J];计算机学报;2000年12期

6 张向波,邢朝伟;符号学在人机交互中的应用[J];微机发展;2003年10期

7 ;人机交互的热点技术应用人机交互:让电脑“读”懂你的心[J];黑龙江科技信息;2012年19期

8 张国栋;赵其杰;屠大维;卢建霞;江济良;;基于认知语义的视线跟踪人机交互任务设计[J];人类工效学;2012年03期

9 周莉莉;吕琴琴;;基于智能技术发展的人机交互和谐设计方法研究[J];美术教育研究;2013年06期

10 袁保宗,阮秋琦,王延江,刘汝杰,唐晓芳;新一代(第四代)人机交互的概念框架特征及关键技术[J];电子学报;2003年S1期

相关会议论文 前10条

1 王琳;饶培伦;;面向老龄用户的人机交互界面设计[A];第三届和谐人机环境联合学术会议(HHME2007)论文集[C];2007年

2 罗斌;唐锡晋;张楠;;强化人机交互的在线会场[A];和谐发展与系统工程——中国系统工程学会第十五届年会论文集[C];2008年

3 王德才;原伟;孙牧;;基于Microsoft Agent开发人机交互程序[A];全国第20届计算机技术与应用学术会议(CACIS·2009)暨全国第1届安全关键技术与应用学术会议论文集(下册)[C];2009年

4 张光刘;李琳;谭剑波;;体感设备与被动立体相结合的人机交互方法初探[A];全国第21届计算机技术与应用学术会议(CACIS·2010)暨全国第2届安全关键技术与应用学术会议论文集[C];2010年

5 林雅丽;;面向老年人的网上银行人机交互设计评价初探[A];2013中国信息经济学会学术年会暨博士生论坛论文集[C];2013年

6 王奇志;徐德;时鲁艳;;机器人模仿学习与人机交互的学习控制综述[A];第25届中国控制与决策会议论文集[C];2013年

7 黄捷;;人机交互在震动环境下的仿真模型设计与实验测试[A];第四届和谐人机环境联合学术会议论文集[C];2008年

8 赖小卿;;一类人机交互访问冲突控制策略及算法研究[A];2009年全国开放式分布与并行计算机学术会议论文集(上册)[C];2009年

9 王平;陆继翔;王昕;陆长德;;3G终端跨平台虚拟三维人机交互研究[A];陕西省机械工程学会第九次代表大会会议论文集[C];2009年

10 郭北苑;方卫宁;;人机交互中基于眼动仪的输入技术研究[A];第二届全国信息获取与处理学术会议论文集[C];2004年

相关重要报纸文章 前10条

1 戴国忠;人机交互进入第三代[N];中国计算机报;2009年

2 本报记者 滕继濮;人机交互:理想境界还有多远?[N];科技日报;2010年

3 本报记者 张意轩;人机交互渐行渐近[N];人民日报海外版;2010年

4 美国卡内基梅隆大学计算机学博士,微软雷德蒙研究院可视化及互动领域研究员 Desney Tan;人机交互 那些触手可及的梦想[N];电脑报;2009年

5 本报记者 滕继濮;人机交互:技术为人服务[N];科技日报;2011年

6 哈弗布雷;人机交互的终极进化[N];电脑报;2013年

7 本报实习记者 马爽;人机交互多样化 引领智能设备变革[N];中国证券报;2014年

8 赵震刚;智能自助机具需要更和谐的人机交互[N];中国城乡金融报;2014年

9 本报记者 朱丽;人机交互:让电脑“读”懂你的心[N];科技日报;2012年

10 本报记者 蒋秀娟;人机交互:一个“耳提面命”的智能时代[N];科技日报;2013年

相关博士学位论文 前6条

1 郑弋源;民用飞机驾驶舱人机交互机理与评价方法研究[D];上海交通大学;2015年

2 黄淦;生物表面电信号建模、分析及其在人机交互中的应用[D];上海交通大学;2013年

3 钱志勤;人机交互的演化设计方法及其在航天器舱布局方案设计中的应用[D];大连理工大学;2001年

4 刘乐元;面向有限资源平台人机交互的人手检测与跟踪[D];华中科技大学;2012年

5 胡明辉;人机交互等待状态的用户体验研究和设计对策[D];北京理工大学;2015年

6 廖峗;基于裸手的自然人机交互关键算法研究[D];云南大学;2012年

相关硕士学位论文 前10条

1 牟福龙;以人机交互理论为核心的B超设计研究[D];西南交通大学;2015年

2 罗楠;人机交互学习系统实现及学生兴趣程度检测[D];华中师范大学;2015年

3 林水强;自然人机交互关键技术研究及其应用[D];西南科技大学;2015年

4 孙琴;基于机器视觉的三维手势交互技术研究[D];电子科技大学;2014年

5 甘玉龙;基于眼电的智能输入系统[D];电子科技大学;2015年

6 李鹤;基于人机交互模式的救援人员心理救助系统设计与实现[D];东北大学;2014年

7 何娜娜;面向三维手势交互界面的用户视觉关注分布特征研究[D];济南大学;2015年

8 金宇;面向人机交互的注视点估计技术研究[D];南京大学;2014年

9 曾繁江;基于机器学习的以人为中心的自然人机交互[D];南京大学;2013年

10 韩霞;媒体建筑环境视角下互动设计研究[D];中央美术学院;2016年



本文编号:1636835

资料下载
论文发表

本文链接:https://www.wllwen.com/wenyilunwen/guanggaoshejilunwen/1636835.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户94687***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com