基于大规模网络视频的事件挖掘研究
发布时间:2017-04-26 03:11
本文关键词:基于大规模网络视频的事件挖掘研究,,由笔耕文化传播整理发布。
【摘要】:随着互联网技术的迅猛发展和计算机的普及,普通用户越来越容易从谷歌、百度、YouTube和优酷等视频分享网站上获得大量正在发生的事件的网络视频。另外,CCTV、BBC和CNN等大量新闻媒体也越来越多的将大量网络视频放到他们的网站。这对普通用户能否快速从搜索引擎返回的海量网络视频中,掌握主要事件是一个挑战。网络视频事件挖掘是一个非常有意义的研究课题。主要事件挖掘可以方便普通用户快速了解整个话题,并建立事件间的关系,从而了解整个话题的来龙去脉。如果对某一个事件比较感兴趣的话,还可以进一步了解。当普通用户检索某话题时,如果他们了解该话题的主要事件,可以方便他们了解事件间的关系。然而,普通用户只有观看搜索引擎返回的海量视频后,通过自己总结才能了解主要事件。这需要耗费大量时间,而且难以完成,普通用户也没有足够耐心,尤其是对于完全陌生的话题。因此,通过主要事件挖掘改善用户搜索体验是一个紧迫的任务。本文分别研究了网络视频的文本与视觉的突发性特征,并通过它们间的关系进行了相关融合方案的探索,主要内容包括以下三个方面:首先,研究了基于共同发生与多重对应分析的网络视频事件挖掘。针对网络视频中文本信息具有信息量少、噪声多以及信息不完整等特性。同时,结合视觉信息的特点,即重要的镜头经常被插入到相关视频中用来提醒或支持其观点,具有举足轻重的作用。此外,视觉信息不仅包含有丰富的信息,而且相对不容易被修改,因此视觉特征相对于文本描述更加精确,故其具有更明显的优势。新提出的网络视频事件挖掘方法,通过文本与视觉信息的融合进行网络视频的事件挖掘。通过共同发生挖掘视觉近似关键帧之间的视觉相关性,并将统计领域中的多重对应分析应用到多媒体检索领域,探索网络视频中出现的标题/标签等文本信息在视觉近似关键帧中的分布特性,从而利用文本信息的分布特性计算视觉近似关键帧与事件间的相关度。大量实验结果表明,基于视觉内容相关性与多重对应分析的网络视频事件挖掘,在相同条件下事件挖掘效果更佳。其次,研究了基于视觉特征轨迹与文本分布特征的网络视频事件挖掘。视觉近似关键帧的共同发生只能挖掘视觉内容相关的视频,而同一事件往往具有多种视觉表达形式,从而容易丢失与事件主题相关,视觉内容不同的视频。因此,利用视觉特征轨迹的时间分布特性,通过共同发生增加视觉特征轨迹的鲁棒性,以减少视频编辑的影响,提出了基于视觉内容的特征轨迹。与此同时,针对文本信息噪声较多,易造成文本分布特征不稳定的问题,提出了利用视觉近似关键帧间的视觉内容的相关性来挖掘文本信息的语义相关性,从而增强文本信息的鲁棒性。并根据文本与视觉信息间的相关性,提出了一种概率模型从理论上探索文本与视觉信息融合的问题,从而更好的实现两者优势的互补。通过海量数据集上的大量实验,证明基于内容的视觉特征轨迹与文本分布特征的网络视频事件挖掘方案,能够有效的改善基于视觉近似关键帧的内容单一问题,并能在一定程度上提高文本信息的鲁棒性,而文本与视觉信息的融合方案进一步弥补了文本与视觉信息各自的缺陷,达到了优势互补的目的。最后,研究了基于动态关联规则与视觉近似片段的网络视频事件挖掘。通过深入分析研究视觉近似关键帧的特性及其存在的问题,为了减少视频编辑对视觉近似关键帧检测的影响,提出了视觉近似片段这一全新的概念。主要利用视频中时间与空间信息以减少图片中文字等信息的影响,并探索了视觉近似片段问的关联规则,以及文本信息在视觉近似片段中的分布特性。同时,为了进一步增强嘈杂的文本在视觉近似片段中的分布特性,提出用动态关联规则算法将语义相关的单词聚集在一起,从而用语义相关的单词集来代替原来的单个单词,以达到增强文本信息鲁棒性的目的。最终通过文本与视觉信息的融合,实现文本与视觉信息互为补充,进一步提高了事件挖掘的效果。大量实验结果表明基于动态关联规则与视觉近似片段的网络视频事件挖掘,在相同条件下有效改善了网络视频编辑以及文本特征鲁棒性的问题。
【关键词】:网络视频 事件挖掘 视觉近似关键帧 视觉近似片段 多重对应分析 特征轨迹 共同发生 关联规则挖掘
【学位授予单位】:西南交通大学
【学位级别】:博士
【学位授予年份】:2015
【分类号】:TP391.41;TP311.13
【目录】:
- 摘要7-9
- Abstract9-13
- 第1章 绪论13-24
- 1.1 研究背景与意义13-15
- 1.2 国内外研究现状15-20
- 1.2.1 话题检测与跟踪15-17
- 1.2.2 特征轨迹17-18
- 1.2.3 关联规则挖掘18-19
- 1.2.4 多重对应分析19
- 1.2.5 时空信息的事件挖掘19-20
- 1.3 研究目标及拟解决的关键问题20-21
- 1.3.1 课题研究目标20
- 1.3.2 拟解决的关键问题20-21
- 1.4 本文的主要研究内容及组织结构21-24
- 第2章 基于视觉内容相关性与多重对应分析的网络视频事件挖掘研究24-37
- 2.1 视觉近似关键帧24-27
- 2.2 共同发生与多重对应分析的融合27-33
- 2.2.1 多重对应分析29-31
- 2.2.2 共同发生31-32
- 2.2.3 文本与视觉信息的融合32-33
- 2.3 实验与分析33-35
- 2.3.1 实验数据33-34
- 2.3.2 实验分析34-35
- 2.4 本章小结35-37
- 第3章 基于视觉特征轨迹与文本分布特征的网络视频事件挖掘研究37-62
- 3.1 基于特征轨迹的事件挖掘38-42
- 3.1.1 视觉特征轨迹38-39
- 3.1.2 文本特征轨迹分析与研究39
- 3.1.3 视觉特征轨迹分析与研究39-41
- 3.1.4 文本与视觉特征轨迹的融合41-42
- 3.2 实验与分析42-46
- 3.2.1 实验数据42
- 3.2.2 实验分析42-46
- 3.3 基于内容的视觉特征轨迹与文本信息融合的事件挖掘46-56
- 3.3.1 文本相关性49-51
- 3.3.2 基于内容的视觉特征轨迹51-55
- 3.3.3 文本与视觉信息的融合55-56
- 3.4 实验与分析56-61
- 3.4.1 实验数据56
- 3.4.2 实验分析56-61
- 3.5 本章小结61-62
- 第4章 基于动态关联规则与视觉近似片段的网络视频事件挖掘研究62-87
- 4.1 基于动态关联规则的事件挖掘62-66
- 4.1.1 动态关联规则62-66
- 4.1.2 分类66
- 4.2 实验对比与分析66-70
- 4.2.1 实验数据66
- 4.2.2 实验分析66-70
- 4.3 基于视觉近似片段的事件挖掘70-80
- 4.3.1 视觉近似片段72-74
- 4.3.2 视觉近似片段与文本分布特征的融合74-75
- 4.3.3 关联规则挖掘75-78
- 4.3.4 文本信息挖掘78-79
- 4.3.5 多模态融合79-80
- 4.4 实验与分析80-86
- 4.4.1 实验数据80-81
- 4.4.2 实验分析81-86
- 4.5 本章小结86-87
- 结论与展望87-90
- 1 主要研究成果87-88
- 2 今后研究方向88-90
- 致谢90-92
- 参考文献92-103
- 攻读博士学位期间发表的论文及参加的科研工作103-104
【参考文献】
中国期刊全文数据库 前4条
1 刘海涛;老松杨;白亮;刘振亚;;基于故事的新闻视频事件专题分析方法[J];国防科技大学学报;2011年05期
2 郭嵡秀;吕学强;李卓;;基于突发词聚类的微博突发事件检测方法[J];计算机应用;2014年02期
3 张承德;吴晓;Mei-Ling Shyu;彭强;;A Novel Web Video Event Mining Framework with the Integration of Correlation and Co-Occurrence Information[J];Journal of Computer Science & Technology;2013年05期
4 郭德清;廖祥文;;基于箱线图的微博客热点话题发现[J];山西大学学报(自然科学版);2014年01期
本文关键词:基于大规模网络视频的事件挖掘研究,由笔耕文化传播整理发布。
本文编号:327618
本文链接:https://www.wllwen.com/shoufeilunwen/xxkjbs/327618.html