推广 热搜: APP  存储  设备  闪存  交换机  企业存储  华为  联想  思科  监控 

  • 匿名
点击 238回答 0 2015-05-11 00:00

影响重复数据删除技术的因素

待解决 悬赏分:0 - 离问题结束还有
影响重复数据删除技术的因素

重复数据删除(De-Duplication)成为最近存储备份领域的一个热门词汇。业内关于这项技术有多种不同的命名,比如单一实例存储、容量优化、公共分流、数据缩减。不管是用何种名称,重复数据删除都意味着只备份经过更改的数据。这与传统的每周或每天备份所有数据的模式形成鲜明对比。

>

对于那些希望降低带宽成本并改善备份性能的公司来说,重复数据删除无疑是一个极具吸引力的概念。但是和其他新技术一样,重复数据删除也带来了很多问题。

>

目前市面上应用重复数据删除技术的产品的主要区别在于实施重复数据删除的地点和文件被分割的片段大小。用户在购买之前必须弄清楚这些区别。

>

举个例子,ADIC、Avamar、Symantec在PC、笔记本和服务器上利用软件代理来压缩数据,但是这种方式将文件分割为不同的片段,在需要的时候复原文件。这种方法需要很大的处理功率,而且部署起来比较困难。

>

Asigra和Data Domain利用在备份服务器后端的设备来运行软件,由这些设备来负责重复数据删除处理而不用服务器。Diligent Technologies的虚拟磁带库运行在Linux服务器上,从备份服务器中收集数据,然后将数据复制到虚拟磁带库中。但是有人指出这种方法只是减少了所需的存储容量,并没有直接解决带宽问题。

>

另一个重要因素是文件片段的大小。较小的片断需要更多的指示器和更大的指针,这就延缓了备份时间。然而,较小的片断通常意味着压缩比率更好。

反对 0举报 0 收藏 0
网站首页  |  物流配送  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  RSS订阅  |  违规举报  |  京ICP备14047533号-2
Processed in 0.004 second(s), 6 queries, Memory 0.44 M