《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 设计应用 > 一种基于Simhash算法的重复域名数据去重方法
一种基于Simhash算法的重复域名数据去重方法
信息技术与网络安全 4期
侯开茂,韩庆敏,吴云峰,黄 兵,张久发,柴处处
(中国电子信息产业集团有限公司第六研究所,北京100083)
摘要: 随着数字科学技术的发展,各领域需要传输和存储的数据量急剧上升。然而传输和存储的数据中重复数量占据了很大的比例,这不仅会增加使用数据的成本,也会影响处理数据的效率。域名是一种存储量大而且对处理速率有极高要求的数据,为了节约域名解析系统的存储成本,提高传输效率,本文在原有数据去重技术的基础上,引入了Simhash算法,结合域名数据的结构特征,改进数据分词和指纹值计算方式,提出了一种基于Simhash算法的重复域名数据去重方法。实验结果表明,相比于传统的数据去重技术,该方法对删除重复域名数据效率更高,具有较好的实际应用价值。
關(guān)鍵詞: 数据去重 域名 Simhash 数据分块
中圖分類號: TP391
文獻(xiàn)標(biāo)識碼: A
DOI: 10.19358/j.issn.2096-5133.2022.04.011
引用格式: 侯開茂,韓慶敏,吳云峰,等. 一種基于Simhash算法的重復(fù)域名數(shù)據(jù)去重方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2022,41(4):71-76.
Method for deleting duplicate domain name data based on Simhash algorithm
Hou Kaimao,Han Qingmin,Wu Yunfeng,Huang Bing,Zhang Jiufa,Chai Chuchu
(The 6th Research Institute of China Electronics Corporation,Beijing 100083,China)
Abstract: With the development of digital science and technology, the amount of data that needs to be transmitted and stored in various fields has risen sharply. However, the number of repetitions in these data occupies a large proportion. This not only increases the cost of using data, but also reduces the efficiency of data processing. Domain name is a kind of data with large storage capacity and extremely high requirements for processing speed. In order to save storage cost and improve transmission efficiency, this paper proposes a method for deleting duplicate domain name data based on Simhash algorithm. Compared with the traditional data deduplication technology, this method combines the structural characteristics of the domain name data, and introduces the Simhash algorithm to design a deduplication method for the domain name data. The experimental results show that compared with the traditional data deduplication technology, this method is more efficient in deleting duplicate domain name data and has better practical application value.
Key words : data deduplication;domain name;Simhash;data block

0 引言

隨著電子信息技術(shù)的發(fā)展,各行各業(yè)都產(chǎn)生了大量的數(shù)據(jù)信息,根據(jù)國際數(shù)據(jù)公司(International Data Corporation,IDC)的最新預(yù)測:到2023年,中國的數(shù)據(jù)量將達(dá)到40 ZB,并且隨著5G技術(shù)的普及,數(shù)據(jù)量增長將會迎來又一個新的高潮[1]。有研究發(fā)現(xiàn),這些數(shù)據(jù)中超過60%都是重復(fù)冗余數(shù)據(jù)[2],傳輸和存儲這些冗余數(shù)據(jù)不僅造成了存儲資源和網(wǎng)絡(luò)資源的嚴(yán)重浪費(fèi),也降低了使用數(shù)據(jù)的效率。并且隨著時間推移,這些數(shù)據(jù)帶來的冗余問題會越來越嚴(yán)重。域名[3](Domain Name)作為互聯(lián)網(wǎng)中頻繁使用的數(shù)據(jù)類型之一,是一種特殊的數(shù)據(jù)形式,其對字符的變化敏感度極高,一個字符的變化往往會對使用結(jié)果產(chǎn)生嚴(yán)重的影響。因此,處理重復(fù)域名數(shù)據(jù)需要采用精確而且高效的去重技術(shù)。

已有重復(fù)數(shù)據(jù)處理技術(shù)中,完全文件檢測(Whole File Detection,WFD)技術(shù)[4]無法對內(nèi)容進(jìn)行查重處理,固定分塊(Fixed-Sized Partition,F(xiàn)SP)檢測技術(shù)、可變分塊檢測技術(shù)和滑動塊檢測技術(shù)都是針對數(shù)據(jù)共有特征的粗粒度去重,直接用于重復(fù)域名的處理效果并不理想。因此,本文在已有重復(fù)數(shù)據(jù)檢測技術(shù)的基礎(chǔ)上,引入Simhash算法,結(jié)合域名數(shù)據(jù)的結(jié)構(gòu)特征,改進(jìn)計(jì)算文本特征值的方式,提出了一種基于Simhash算法的重復(fù)域名數(shù)據(jù)去重方法。經(jīng)過實(shí)驗(yàn)對比看出,該方法對于處理重復(fù)域名數(shù)據(jù)效果更好,同時在時間開銷上也和原有技術(shù)差別不大,對于處理重復(fù)域名數(shù)據(jù)具有比傳統(tǒng)去重技術(shù)更好的實(shí)用價值。






本文詳細(xì)內(nèi)容請下載:http://ihrv.cn/resource/share/2000004102






作者信息:

侯開茂,韓慶敏,吳云峰,黃  兵,張久發(fā),柴處處

(中國電子信息產(chǎn)業(yè)集團(tuán)有限公司第六研究所,北京100083)




微信圖片_20210517164139.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。