重复数据删除:停止重复自己

*新技术可以节省磁盘空间和速度备份

重复数据删除:停止重复自己

由德利康纳

重复数据删除、数据缩减、公共分解、容量优化存储——不管你怎么称呼它——是一种旨在使网络备份到磁盘更快、更经济的过程。

这样做的目的是消除可能占用磁盘空间的大量冗余数据。支持者还说,它使您可以在相同数量的磁盘上更长时间地提供更多的在线数据。

在重复数据删除中,当数据备份到基于磁盘的虚拟磁带库(VTL)设备时,将构建数据的目录。该目录或存储库对文件或信息块中的单个数据位进行索引,为其分配元数据引用,如果需要恢复文件,该元数据引用将用于重新构建文件并将其存储在磁盘上。目录还用于后续备份,以确定哪些数据元素是惟一的。不备份非惟一数据元素;唯一的一个被提交到磁盘。

例如,最初备份一个20张幻灯片的PowerPoint文件。然后用户在文件中更改一个幻灯片,保存该文件并通过电子邮件将其发送给10个对应的文件。当进行传统备份时,将备份整个PowerPoint文件及其10份电子邮件副本。在重复数据删除中,在修改PowerPoint文件后,只备份唯一的数据元素(更改后的单个幻灯片),需要的磁盘容量大大减少。

独立存储分析师兰迪•克恩斯(Randy Kerns)表示:“数据减少的数字非常棒。”“大多数供应商都说,如果只存储唯一更改过的数据,容量会降低20比1。”

重复数据删除使用两种方法来标识惟一的信息。一些供应商使用一种称为哈希的加密算法来判断数据是否唯一。该算法应用于数据,并与之前计算的哈希进行比较。其他供应商,比如勤奋,使用一种模式匹配和区分算法来识别重复的数据。勤奋说,这种方法效率更高,因为它对CPU和内存的消耗更少。

想了解更多关于这个故事的内容,请点击这里

加入网络世界社区有个足球雷竞技app脸谱网LinkedIn对最重要的话题发表评论。

版权©2006Raybet2

工资调查:结果在