面向图像的云存储重复数据删除方案设计
发布时间:2025-01-05 22:08
在当今互联网时代,云存储服务的迅速发展使得云端的用户数据爆炸式增长。为了节省云存储空间和网络带宽,基于客户端的重复数据删除技术在云存储中得到了广泛应用。该技术仅在云服务器上存储重复数据的单一副本。由于图像具有数量大、冗余性高等特点,对图像进行客户端的重复数据删除显得尤为必要。然而,现有的客户端重复数据删除方案大多是基于密码学哈希实现,这是一种精确匹配,不再适用于图像的重复数据删除。对图像而言,典型的操作如改变尺寸、压缩和格式变换只会改变图像的二进制表示,但其感知内容不变,这些改变后的图像可认为是重复数据。因此需要考虑对感知相似图像的模糊去重。另一方面,为了实现安全的客户端重复数据删除,“所有权证明(PoW)”被广泛应用于文件的去重复中,用于帮助云服务器验证用户是否确实拥有完整的原始文件。在新的图像去重复场景下,早期的“所有权证明”失效了。为了实现高效、安全的客户端图像重复数据删除,本文对现有方案进行了研究与分析,主要取得以下研究成果:1、提出了一种支持模糊匹配的客户端图像去重复方案。首先,对基于离散余弦变换的图像感知哈希算法进行了理论分析和实验验证,根据离散余弦变换谱系数的统计特性,在保...
【文章页数】:92 页
【学位级别】:硕士
【部分图文】:
本文编号:4023343
【文章页数】:92 页
【学位级别】:硕士
【部分图文】:
图3.5随机内容篡改
22(a)Baboon原图(b)Lena原图(c)篡改后的图像图3.5随机内容篡改(a)原始图像(b)特定内容篡改后的图像(c)原始图像(d)特定内容篡改后的图像图3.6特定内容篡改接下来选取21组内容不同的图像进行比较,每一组比较分别记录其归一化汉明距离,得....
图3.6特定内容篡改
(a)原始图像(b)特定内容篡改后的图像(c)原始图像(d)特定内容篡改后的图像图3.6特定内容篡改接下来选取21组内容不同的图像进行比较,每一组比较分别记录其归一化汉明距离,得到不同阈值设置下的误报率,误报率越高,则说明其对篡改的敏感性越低,越易造成误删操作,方案的可....
本文编号:4023343
本文链接:https://www.wllwen.com/kejilunwen/jisuanjikexuelunwen/4023343.html