当前位置:主页 > 社科论文 > 图书档案论文 >

基于语义的图像检索技术研究

发布时间:2020-06-20 17:28
【摘要】: 随着多媒体技术的发展和互联网的不断普及,数字图像已得到了越来越广泛的应用。20世纪90年代以来,为了有效地组织和检索海量图像数据,满足人们日益增长的图像检索需求,出现了基于内容的图像检索技术,并逐渐成为了图像检索技术发展的主流方向。 现有基于内容的图像检索技术在描述图像内容时大多直接采用了颜色、纹理、形状等低层图像特征,这些传统的特征描述方式一般直接以统计数据的形式出现。而事实上,这些统计数据与人对图像内容的理解存在很大的差异。人对图像内容的理解并不建立在统计的基础之上,并且图像内容具有“模糊”特性,无法简单的用特征向量进行表示。这就造成了现有系统中必然会存在图像表示与人的理解偏差的问题,即语义鸿沟问题。很多情况下,仅仅使用图像的低层特征作为检索依据,其结果不尽人意。 因此,如何描述图像,使其尽可能的符合人对图像的理解,成为提高检索精确度的关键。从人对事物认知的角度看,人对图像内容的理解和描述主要在语义层次上进行。如何缩小“语义鸿沟”,如何准确表达图像的内容语义和用户的检索意图,成为了图像检索技术研究的重点和关键。 本文在图像特征索引的基础上,引入了模糊语义分类方法和相关反馈方法,着眼于图像特征与语义概念间的映射,初步探索了特定场景下低层特征与高层语义间的映射方法,主要的工作有: 1.运用物理特征提取算法,提取图像颜色、纹理和形状特征,用于后续的语义映射。图像的物理特征是计算机理解图像内容的基础,良好的特征提取算法,能够提高后续语义映射的准确程度,进而最终改善系统检索的效果。 2.运用模糊分类方法,建立低层特征与高层语义间的映射。 要进行基于语义的图像检索,首先需要提取出图像语义概念。在现在的计算机及模式识别技术条件下,对图像语义概念的提取,应该建立在对图像目标识别的基础上。通过模式识别的方法,识别出图像中的目标并与语义概念进行连接,这样,就可以使低层物理特征映射到高层语义特征,实现对高层语义的检索。本文引入了模糊分类的方法,通过选择最佳训练样本,实现物理特征向语义的映射。同时,模糊集合的使用,使使同一幅图像可以同时隶属于不同的语义类别,这也更加符合人对事物的认知方式。 3.运用基于语义分类的相关反馈方法,引入用户对语义概念的理解。 用户可以通过判断系统检索结果与自己检索预期之间的差异,分别选择能够准确表达检索意图和不能表达检索意图的图像,进行相关反馈,对图像对应语义进行修正,更好地表达用户对概念的理解,减小样本选择者的主观性。同时通过用户的反馈,可以降低物理特征相似但语义无关图像对语义概念的隶属度,使检索结果更加准确。
【学位授予单位】:四川大学
【学位级别】:硕士
【学位授予年份】:2007
【分类号】:G354
【图文】:

统计直方图,示例,直方图,图像


N(3为上式中i代表图像的特征取值,L是特征的可取值的个数,n‘是图像中具有特征值为i的象素个数,N是图像象素的总数。如图3一3。图3一3颇色统计直方图示例对于彩色图像,可以对其3个分量分别做直方图,可以使用不同的颜色分量进行匹配。如图3一4,其中(a)为原图像,(b)为图像红色分量的直方图,(c)为图像绿色分量的直方图,(d)为图像蓝色分量的直方图。

统计直方图,累加直方图,示例


四川大学硕士学位论文图3一4各颜色分t统计直方图当图像中的颜色特征不能取遍所有可能的值时,统计直方图会出现零值。这些零值会给直方图的相似度度量产生很大的影响,从而使计算出来的匹配值不能正确的反应两图之间的颜色差别。在某种程度上而言,我们可以通过增加图像特征间取值的间隔,减少特征值数量的方式来克服这个问题。但这却出现了一个问题,例如在饱和度和亮度相同的情况下,色调的微小变化无法被人所察觉。那么,在量化特征的时候,相距很近的,人眼并不能区分的两个色调值,可能被分到一个量化级别上,也可能被量化到相邻的两个级别上。也就是说,两个相似的特征值

【引证文献】

相关期刊论文 前1条

1 孙亮;任小康;;基于本体的图像语义检索模型[J];重庆工学院学报(自然科学版);2009年01期

相关硕士学位论文 前3条

1 袁本刚;基于语义的图像检索相关问题研究[D];西北大学;2009年

2 孙亮;基于本体的图像语义检索技术研究[D];西北师范大学;2009年

3 贺双双;基于语义模型的外观专利图像检索技术研究[D];广东工业大学;2013年



本文编号:2722733

资料下载
论文发表

本文链接:https://www.wllwen.com/tushudanganlunwen/2722733.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户5c708***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com