银行数据中心建设方案内容摘要:

IO数据量 10M,则 SRDF 性能要求也是 10*8=80 Mbps。 四、数据中心迁移系统设计 数据中心要进行迁移,既要考虑未来最终使用的情况,也要考虑数据迁移过程的实现。 根据厦门建行的系统现状,我们的总体设计思路时:考虑建立一套新数据中心,新旧数据中心采用 SRDF 进行互联,然后在数据搬迁时利用 SRDF 进行异地数据迁移,在数据中心搬迁后建立最终的新旧中心灾备系统。 因 此,我们的系统总体设计要将重点放在灾备系统设计中,我们要从存储系统硬盘分布、 SRDF 同步模式的选择、灾备网络方案的确定、灾备软件的匹配等方面的进行分析设计,最终确定总体架构。 1. 盘分布设计: 盘分布设计主要包括两方面的考虑: ( 1) 确定哪些应用系统放在灾备系统中。 在进行业务数据需求分析完成后,我们就可以确定哪些应用系统、哪些应用数据要放到灾 备系统中,我们就可以确定硬盘的可用容量。 在厦门建行的应用系统中,将核心业务系统和部分重要系统放在灾备系统中。 ( 2) 放在灾备系统中的应用数据的盘分布。 在整个主机 系统中, I/O 的性能是至关重要的。 存储系统的 I/O 性能的提高是整个核心系统性能提高的关键。 其中,硬盘的分布是重中之重。 在盘分布设计中,我们主要采用两点思路: • 核心业务使用的硬盘采用 Raid1,而不采用 Raid5。 这样,数据在得到双重保护的同时,又不降低性能。 • 核心业务使用的硬盘尽可能放在不同的物理硬盘上。 这样,将使核心业务的 I/O 分摊到不同的 I/O 通道中,使 I/O 性能进一步提高。 • 核心业务使用的硬盘尽可能放在不同的通道上。 这样,将使核心业务的 I/O 分摊到不同的 I/O 通道中,使 I/O 性能进一步提高。 2. SRDF 同步模式选择 SRDF 数据镜像技术支持三种工作模式:同步模式、半同步模式、异步模式,其中半同步模式使用较少,同步模式对于同城灾备最合适,异步或自适应模式适合数据的迁移,对主机端的 I/O 性能影响最小。 但是若一套系统仅用于一次数据迁移,既可以异步模式来实现,也可以用同步模式来实现。 按照厦门建行的需求,我们不仅使用 SRDF 来实现数据迁移,同时将来还要做同城灾备。 因此,为了减少对业务的影响,我们可以提 前同步,从而在迁移切换时,数据已经处于同步状态,可以使数据迁移的切换时间大大缩短。 3. 网络方案的确定: 在 SRDF 灾备实施中,为保证实施灾备系统的运行,网络传输速度是至关重要的。 在明确迁移需求和系统负载后,以及联机和批量对磁盘更新量以后,进行 SRDF 带宽设计。 包括 SRDF Synchronous Delay、 VOLUME WRITE I/O LIMIT,具体方法可参考有关资料,这里不详述。 一般情况下, 10km 以内的两套系统互 联,只需要使用裸光纤互联就可以,连接接口采用长波单模光纤接口。 采用裸光纤、普通光纤接口的传输速率理论上能达到 1Gbps,实际数值也能达到 500Mbps以上。 而对于超过 10km 的两套系统互联,可以采用磁盘间 SRDF 连接为 2 根 ESCON 通道,两地采用 NORTEL 或 CISCO 等网络设备厂商提供的 DWDM 设备作通道延伸,两端 DWDM 间用 DARK FIBER 连接。 这时就要根据系统的负载需求来确定传输线路的速率了。 因为厦门建行新旧大楼之间距离小于 10Km,因此采用裸光纤直连方式进行,通过计算,超过 200Mbps 的数 据传输速率能满足厦门建行数据传输的需要。 4. 软件版本的匹配: 在我们的设计中,需要我们和厂商关注的一点是灾备系统两端的微码版本是否匹配,是否能满足 SRDF 的运行需要。 只有 EMC 公开 文档明确支持 SRDF 运行的微码版本才能发到两端的存储系统上运行,以确保将来 SRDF 运作的稳定性和可用性。 5. 系统架构: 根据需求的分析,我们要利用 SRDF 技术我们最终的目的是要建立一套基于 SRDF 的数据灾备系统,同时满足数据中心迁移的需要,同时将来作为数据灾备系统,当新数据中心出现问题时,旧数据中心能得到最新的业务数据,并 利用旧数据中心拥有的部分主机实现部分核心业务。 因此,我们在总体设计是要按将来是一套 SRDF 同步系统来考虑,主存储是 EMC 8530,灾备存储是 3830。 大部分主机将搬迁到新数据中心,旧数据中心只保留很少的主机。 数据中心搬迁后的系统最终的总体结构图如下: 图三 最终的系统结构示意图。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。