基于压缩近邻的查重元数据去冗算法设计
随着重复数据删除次数的增加,系统中用于存储指纹索引的清单文件等元数据信息会不断累积,导致不可忽视的存储资源开销。因此,如何在不影响重复数据删除率的基础上,对重复数据删除过程中产生的元数据信息进行压缩,从而减小查重索引,是进一步提高重复数据删除效率和存储资源利用率的重要因素。针对查重元数据中存在大量冗余数据,提出了一种基于压缩近邻的查重元数据去冗算法Dedup
用户评论
推荐下载
-
cmd创建用户及表数据去重
cmd创建用户及表数据去重
12 2020-08-18 -
js字符串去重json数组去重.txt
js对字符串(逗号隔开的)进行去重操作;js对json数组进行去重操作(指定某个属性)
46 2020-09-11 -
蓝桥杯算法训练素因子去重答案
蓝桥杯练习系统的试题:算法训练 素因子去重 个人所做的答案。
21 2019-02-16 -
SQL Server去重
关于SQL Server中的去重问题,内含详细测试数据
18 2020-09-27 -
java set去重
javaset去重
24 2020-05-14 -
文件去重软件
文件去重软件
26 2019-09-23 -
VistanitaDuplicateFinder文件去重
电脑文件多,不知道那个重复,不用担心,这个程序能帮你找到重复文件;想怎么批量删除,有你说了算!
71 2019-01-16 -
几种sql去重
几种sql去重
50 2019-01-20 -
list去重.txt
在java的list中由于经常存在重复的元素,需要去重,这个时候要用到list去重,将一些不必要展现出来的元素展现出来
25 2020-09-02 -
url去重技术
URLQUCHONGJISHU,哈希表的简历和网络爬虫的工作机制能够在信息采集项目开发商
19 2020-06-10
暂无评论