基于内容的图像安全检索技术研究
发布时间:2022-01-02 19:23
随着智能设备和互联网的普及,多媒体数据量急速增长,基于内容的图像检索(Content-based Image Retrieval,CBIR)能够从大规模图像中搜索出相似图像,实现对数据的利用。对数据拥有者而言,将对图像数据的管理和维护外包给云服务提供商,可以有效降低成本,但存在隐私泄露的问题。关于在数据外包场景下图像隐私保护方法的研究日趋活跃,不少图像安全检索方案相继被提出,然而这些方案存在客户端计算量大、图像拥有者、云服务器和查询用户交互轮数多、通信开销大等问题,很难直接应用。在实际环境中,同一项服务可以由多个云服务器共同提供支持,本文以基于内容的图像安全检索为研究课题,重点研究了双服务器模型下的图像特征提取、索引设计和图像检索方法,主要内容如下:(1)提出了一种基于BOVW特征的图像安全检索方案。该方案结合SIFT特征安全提取和局部敏感哈希算法,实现了对图像BOVW特征的安全提取。为了保护图像的BOVW特征,设计了基于词频划分的倒排索引,对索引进行分块存储。最后,设计了相应的图像检索方法。该方案最大限度的减少了检索过程中图像拥有者和查询用户的参与。(2)提出了一种基于CNN特征的图...
【文章来源】:电子科技大学四川省 211工程院校 985工程院校 教育部直属院校
【文章页数】:79 页
【学位级别】:硕士
【部分图文】:
云平台架构
电子科技大学硕士学位论文10提取出图像特征后,根据具体需求,往往需要对特征进一步处理,比如降维、聚类。SIFT特征、BOVW特征和CNN特征是常用的图像特征,在图像分类、检索方面有良好表现。2.1.1尺度不变特征变换SIFT是一种图像局部特征提取算法,也可以认为是该算法提取的图像局部特征。通过对图像进行尺度空间变换,检测差分尺度空间下的极值点,提取尺度、旋转不变量,并抽象成特征向量进行描述。由于SIFT特征独特性好、描述符信息含量丰富,对视角变化、仿射变化、噪声也具有一定的鲁棒性,因此能够对图像进行准确地匹配。基于SIFT特征的图像匹配一般包括:(1)提取目标图像和原图像的SIFT特征描述符;(2)对提取出的SIFT特征进行匹配,如图2-1所示。图2-1基于SIFT特征的图像匹配图像SIFT特征的提取步骤详细描述如下:(1)尺度空间生成:首先建立相应的高斯金字塔和高斯差分金字塔。对于图像,其高斯差分金字塔是通过一个高斯差分函数与卷积得到的,二维图像(,)的高斯尺度空间函数定义如式(2-1)、式(2-2)。(,,)=(,,)(,)(2-1)(,,)=122(2+2)22(2-2)其中(,,)是尺度可变的高斯核函数,是尺度因子,(,)是空间坐标。然后在同一组尺度空间下,计算高斯差分金字塔,如式(2-3)。(,,)=((,,)(,,))(,)=(,,)(,,)(2-3)(2)关键点定位:指在高斯差分金字塔检测局部极值点,比较的区间是与待检测点相邻的上层9个相邻点、下层9个相邻点和本层周围的8个相邻点。对初步得到的局部极值,一般会进一步筛选以获得稳定的关键点。(3)方向分配:SIFT特征描述符的旋转不变性与关键点分配密切相关。围绕
电子科技大学硕士学位论文12图2-2安全的SIFT特征提取流程2.1.3视觉词袋模型视觉词袋(BagOfVisualWords,简称BOVW)模型是与BOW词袋模型(BagOfWords,简称BOW)相似的概念,BOW模型是自然语言处理和内容检索领域广泛应用的一种文档简化方式,基本思想是将一个文本视为独立的单词集合,忽略词间的关系和顺序,根据集合中词的种类和数量对文本进行分类。例如有以下两个文档:文档1:Jerrylikesplayingchess.Stephenlikes,too.文档2:Stephenlikesplayingpoker.针对这两个文档,可以构造出词典:词典={1:Jerry,2:like,3:play,4:chess,5:Stephen,6:poker,7:too}.在得到字典之后,上面的2个文档在BOW模型下可以表示为:文档1:(1,2,1,1,1,0,1)文档2:(0,1,1,0,0,1,0)向量中每个元素表示相关单词在文档中出现的次数,注意到字典中的单词用原形表示,这个过程是同义词转换。整个过程可以概括为三步:提取单词(分词)、生成字典、生成文档向量。将BOW模型应用于图像检索领域时,就成为了BOVW模型。Li在文献[51]中提出了用BOW模型表达图像的方法,他们认为,图像可以类比为由视觉词组成的文档。统计视觉词在不同目标类中出现的次数,可以得到每幅图像的直方图表示。图像BOVW特征生成可概括为以下步骤:(1)提取视觉词:对应于文档分词的步骤,提取图像的局部特征;(2)生成视觉词字典:对提取出的局部特征进行二次采样,通常做法是聚类,将聚类中心作为词汇表来描述图像;
【参考文献】:
期刊论文
[1]近似最近邻搜索算法——位置敏感哈希[J]. 高毫林,徐旭,李弼程. 信息工程大学学报. 2013(03)
[2]基于多表频繁项投票和桶映射链的快速检索方法[J]. 高毫林,彭天强,李弼程,郭志刚. 电子与信息学报. 2012(11)
[3]一种基于随机化视觉词典组和查询扩展的目标检索方法[J]. 赵永威,李弼程,彭天强,高毫林. 电子与信息学报. 2012(05)
硕士论文
[1]基于深度CNN特征的安全图像检索[D]. 魏志伟.西安电子科技大学 2019
本文编号:3564746
【文章来源】:电子科技大学四川省 211工程院校 985工程院校 教育部直属院校
【文章页数】:79 页
【学位级别】:硕士
【部分图文】:
云平台架构
电子科技大学硕士学位论文10提取出图像特征后,根据具体需求,往往需要对特征进一步处理,比如降维、聚类。SIFT特征、BOVW特征和CNN特征是常用的图像特征,在图像分类、检索方面有良好表现。2.1.1尺度不变特征变换SIFT是一种图像局部特征提取算法,也可以认为是该算法提取的图像局部特征。通过对图像进行尺度空间变换,检测差分尺度空间下的极值点,提取尺度、旋转不变量,并抽象成特征向量进行描述。由于SIFT特征独特性好、描述符信息含量丰富,对视角变化、仿射变化、噪声也具有一定的鲁棒性,因此能够对图像进行准确地匹配。基于SIFT特征的图像匹配一般包括:(1)提取目标图像和原图像的SIFT特征描述符;(2)对提取出的SIFT特征进行匹配,如图2-1所示。图2-1基于SIFT特征的图像匹配图像SIFT特征的提取步骤详细描述如下:(1)尺度空间生成:首先建立相应的高斯金字塔和高斯差分金字塔。对于图像,其高斯差分金字塔是通过一个高斯差分函数与卷积得到的,二维图像(,)的高斯尺度空间函数定义如式(2-1)、式(2-2)。(,,)=(,,)(,)(2-1)(,,)=122(2+2)22(2-2)其中(,,)是尺度可变的高斯核函数,是尺度因子,(,)是空间坐标。然后在同一组尺度空间下,计算高斯差分金字塔,如式(2-3)。(,,)=((,,)(,,))(,)=(,,)(,,)(2-3)(2)关键点定位:指在高斯差分金字塔检测局部极值点,比较的区间是与待检测点相邻的上层9个相邻点、下层9个相邻点和本层周围的8个相邻点。对初步得到的局部极值,一般会进一步筛选以获得稳定的关键点。(3)方向分配:SIFT特征描述符的旋转不变性与关键点分配密切相关。围绕
电子科技大学硕士学位论文12图2-2安全的SIFT特征提取流程2.1.3视觉词袋模型视觉词袋(BagOfVisualWords,简称BOVW)模型是与BOW词袋模型(BagOfWords,简称BOW)相似的概念,BOW模型是自然语言处理和内容检索领域广泛应用的一种文档简化方式,基本思想是将一个文本视为独立的单词集合,忽略词间的关系和顺序,根据集合中词的种类和数量对文本进行分类。例如有以下两个文档:文档1:Jerrylikesplayingchess.Stephenlikes,too.文档2:Stephenlikesplayingpoker.针对这两个文档,可以构造出词典:词典={1:Jerry,2:like,3:play,4:chess,5:Stephen,6:poker,7:too}.在得到字典之后,上面的2个文档在BOW模型下可以表示为:文档1:(1,2,1,1,1,0,1)文档2:(0,1,1,0,0,1,0)向量中每个元素表示相关单词在文档中出现的次数,注意到字典中的单词用原形表示,这个过程是同义词转换。整个过程可以概括为三步:提取单词(分词)、生成字典、生成文档向量。将BOW模型应用于图像检索领域时,就成为了BOVW模型。Li在文献[51]中提出了用BOW模型表达图像的方法,他们认为,图像可以类比为由视觉词组成的文档。统计视觉词在不同目标类中出现的次数,可以得到每幅图像的直方图表示。图像BOVW特征生成可概括为以下步骤:(1)提取视觉词:对应于文档分词的步骤,提取图像的局部特征;(2)生成视觉词字典:对提取出的局部特征进行二次采样,通常做法是聚类,将聚类中心作为词汇表来描述图像;
【参考文献】:
期刊论文
[1]近似最近邻搜索算法——位置敏感哈希[J]. 高毫林,徐旭,李弼程. 信息工程大学学报. 2013(03)
[2]基于多表频繁项投票和桶映射链的快速检索方法[J]. 高毫林,彭天强,李弼程,郭志刚. 电子与信息学报. 2012(11)
[3]一种基于随机化视觉词典组和查询扩展的目标检索方法[J]. 赵永威,李弼程,彭天强,高毫林. 电子与信息学报. 2012(05)
硕士论文
[1]基于深度CNN特征的安全图像检索[D]. 魏志伟.西安电子科技大学 2019
本文编号:3564746
本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/3564746.html