虚拟数据中心灾难恢复策略之重复数据删除功能的用途

日期: 2010-01-05 作者:STEPHEN J. BIGELOW翻译:李哲贤 来源:TechTarget中国

重复数据删除在容灾恢复中也扮演了重要的角色。通过删除重复的文件、数据块和字节,可以大幅减少数据节点中需要复制的数据达50%~80%。这样的话,“变小”的数据站点就可以很快被复制到远程容灾站点。   重复数据删除功能可以直接内嵌到存储子系统中,例如IBM的System Storage TS7650 ProtecTIER Deduplication Appliance。

重复数据删除功能也可以通过安装诸如Symantec NetBackup PureDisk这样的软件来实现。   最后,通过广域网加速器实现对传输协议和站点间数据交换的优化,使得生产站点和容灾站点间的链路连接更加地高效。例如来自Net……

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget微信公众号二维码

TechTarget

官方微博

TechTarget中国官方微博二维码

TechTarget中国

电子邮件地址不会被公开。 必填项已用*标注

敬请读者发表评论,本站保留删除与本文无关和不雅评论的权力。

重复数据删除在容灾恢复中也扮演了重要的角色。通过删除重复的文件、数据块和字节,可以大幅减少数据节点中需要复制的数据达50%~80%。这样的话,“变小”的数据站点就可以很快被复制到远程容灾站点。

  重复数据删除功能可以直接内嵌到存储子系统中,例如IBM的System Storage TS7650 ProtecTIER Deduplication Appliance。重复数据删除功能也可以通过安装诸如Symantec NetBackup PureDisk这样的软件来实现。

  最后,通过广域网加速器实现对传输协议和站点间数据交换的优化,使得生产站点和容灾站点间的链路连接更加地高效。例如来自NetEx公司的基于软件功能实现的HyperIP产品。而且市场上还有很多种可以实现广域网加速功能的产品。这种产品可以加速数据的复制并且有效地拓展同步数据复制功能的实现距离。

  存储容量问题

  任何的数据容灾恢复解决方案都必须仔细考虑对底层存储硬件系统的需求。例如在同步地把数据从生产站点复制到热备份容灾站点的方案中,数据量会增长一倍,从而使得对存储系统的需求也翻倍。如果我们还采用了额外的异步数据复制方案到冷备份站点,那么甚至可能使存储需求量增加两倍。

  “理论上讲,我需要购买更多的存储系统,而且在容灾站点所需要部署的存储系统可能会更加地昂贵,”Gorcester这么说,“但是我之前并不了解虚拟化技术也会使得容灾站点的存储容量需求增加。”

  像重复数据删除和分层存储等技术,就可以减少对存储系统的需求。而且这需要我们跟踪每个存储站点的数据增长情况,以及部署长期的容量规划。

  虚拟化并不会直接增加容灾站点对存储的需求,但是会有一些侧面的影响。服务器虚拟化技术中会创建多个不同的虚拟机,每一台虚拟机对应的都是一份或多份虚拟硬盘文件的拷贝。事实上,虚拟机的增长会增加存储容量的需求,而增加的这些数据在容灾任务中更是会翻倍增长。而在另一方面,存储虚拟化技术则可以通过创建虚拟存储池的方式,提高存储自身的利用率,从而减少物理存储的增长。这会对购买额外存储系统的需求产生潜在的影响。

  现在最主要的问题就是:对于一个机构而言到底需要多少份数据备份?容灾专家的建议是:这取决于数据的重要性,以及数据保留的需求和客户所采用的数据保护方式。

  通常来讲,数据中心会发现他们需要四到五份数据的拷贝:生产数据、磁盘备份数据(例如通过持续数据保护或虚拟磁带库实现的)、复制到远程容灾站点的数据备份、前一次备份的归档数据以及可能还会有一份备份到磁带的数据。

  “我们每天都会对所有工作负载的数据做全镜像,”Gorceste说,因为只有全镜像才能实现对整个系统或虚拟文件的完整备份和恢复。这种方式同时满足了对备份和容灾的需求。

翻译

李哲贤
李哲贤

TT虚拟化特约作者

相关推荐