netappfas2040存储整合设计方案建议书内容摘要:

S 等多种存储架构的接入方式,便于企业用户集中管理业务系统的数据,简化管理和便于维护。 考虑 揭阳榕城区政府 的 实际 情况, NetApp 认为可以采用 iSCSI 方式 来整合存储。 iSCSI 是基于 IP 的网络存储技术,可以在保证高性能的前提下降低系统的总体拥有成本和投资成本。 考虑 揭阳榕城区政府 业务系统的 window20 Windows2020 服务器主机的情况,将现有各个业务系统的数据集中存储整合在一台高性能的存储系统, 将现有业务系统的数据分别迁移到新的存储系统平台上,所有现有的操作系统平台、数据库类型和存储管理模式继续保留, 采用 iSCSI 后的主要优势在于为块级协议,对应用的兼容性非常好。 相比较于 FC SAN 来所, iSCSI 协议本身的兼容性非常好,没有 FC SAN 中复杂的兼容性问题,维护成本大大降低。 NAS 和 iSCSI 是基于 IP 的网络存储技术,可以在保证高性能的前提下降低系统的总体拥有成本和投资成本,通过整合存储完全可以满足 揭阳榕城区政府 业务系统的数据存储要求。 IP- SAN( ISCSI) 、 NAS 整合方案如下图所 示: 15 NetApp FAS 存储系统的 SAN 存储架构可以支持主流的主机平台,包括 IBM AIX;HPUX; SUN Solaris; Linux; Windows 2020 / 2020 等。 NetApp 存储设备这里我们选择 FAS2020A 统一网络存储设备, FAS2020A 是一款中低端的企业级存储设备。 容量及端口数量列表如下: FAS2020 系列产品概览 FAS2020 最大原始容量 68 TB 最大磁盘驱动器数 68 双控制器 有 高速缓冲存储器 2GB 最大光纤通道端口 数 4 最大以太网端口数 4 16 存储协议 FCP、 iSCSI、 NFS、CIFS 远程管理 有 NetApp存储设备这里我们选择 FAS2020A统一网络存储设备, FAS2020A是中低端的企业级存储设备,最大容量为 68TB,可以支持最多 4个 GE端口和 4个 FCP端口,完全可以满足 揭阳榕城区政府 的要求。 iSCSI整合方案 对 揭阳榕城区政府 运行在 Windows 平台上的 SQL Server、财务以及邮件系统及网站等应用,建议用 iSCSI 方式进行整合,主要原因是 iSCSI 可以提供非常 好的应用兼容性和性能。 此种方式使用 iSCSI 作为 Windows 主机和 NetApp 存储设备之间的通信协议。 在 Windows 主机上需要安装 iSCSI Initiator 软件,该软件由微软免费提供。 在不需要非常高性能的前提下,可以不购买额外的 HBA 卡,在现有的千兆网络中即可实现 SAN的块级存储要求,成本较低。 在服务器主机上看到的存储系统分区是本地的磁盘系统( LUN),而不是网络硬盘。 iSCSI 位于存储的 IP 私网(使用隔离的私网 IP 地址), iSCSI 可以利用 IP 网络本身的智能来实现网络路由的自动切 换。 从而实现没有单点故障。 这一部分可以参见 IP 网络设计一节。 NAS 整合方案(可选) 在此种环境下,直接把 NAS 的网络端口接入网络,用于普通的用户文件共享服务。 此时使用公网 IP 地址或者 OA 网的私网地址。 提供文件共享服务时只需要在 NAS 侧设置NFS( Unix 平台文件访问)和 CIFS( windows 平台文件访问)网络共享就可以提供服务了。 同时可以连接 Windows 2020 / 2020 / NT4 的域控制器对用户进行基于域的认证。 也可以连接 UNIX NIS 服务器作基于 NIS 服务的认证。 对运行在 NT 平台 / UNIX /LINUX 上的文件级应用,建议使用 CIFS 或 NFS 方式来整合。 对于运行在 Windows 2020 上的应用,可以使用 CIFS 或 iSCSI 二种协议根据需要来进行整合。 17 图中采用了 4 个 GE 端口来连接前端主机。 为了安全考虑,构建存储私网提供数据库和高性能服务的端口和普通的文件共享服务端口应该区分使用。 如果端口数量不足则可以采取划分 VLAN 的方式进行安全隔离。 FAS2020A 的 2 个控制器采用交叉连接的方式连接到不同的 GE 交换机,主机可以采用同样的方式,这样整个系统没有单点故障。 配置列表 本方案推荐存储系统 FAS2020A,配置如下: FAS2020A 配置双控制器, 2GB Cache, 4 个 4Gb Gb 光纤端口和 4 个 1Gb 以太网口; FCP、 iSCSI、 CIFS(可选)等协议,同时支持 FC SAN、 IP SAN、 NAS( windows 平台文件共享)等多种存储方式; 存储容量按目前需求,先配置 8 块 300GB 15000 转 SAS 磁盘,以后可根据数据增长情况可在线扩展容量; 配置存储集群 Cluster、 Snapshot 快照软件 、 Dedup(ASiS)重复数据删除软件 ,实现存储访问高可用性 及数据快照备份; 详细配置清单请看附件。 这里需要说明的是整个 FAS 存储系统配置冗余的系统结构,本方案采用的NetApp FAS2020A 存储系统的控制器、电源、风扇、硬盘、网络接口卡、光纤环路等部件具有冗余功能: 卷组容量和 RAID划分 建议为了性能考虑,本次工程全部配置 15000 转 300GB SAS 硬盘,考虑到未来容量扩充的需要可以先配置 12 块磁盘。 由于本次工程磁盘数量较少, RAID 方式推荐 使用两个 RAID4( 5D+ 1P+ 1S);以后随着容量扩展,磁盘数目增多可以采用 RAIDDP,可 以用较低的成本实现非常高的数据可靠性。 NetApp 的存储设备热备盘是全局的,不限槽位,所以只需要按照比例留出相应的热备盘即可。 通常推荐 23%比例的热备盘。 但由 18 于此次工 程的数据量较小 ,处于安全考虑,建议留出至少 2 块磁盘作为热备盘。 (每个控制器至少 1 块热备盘) 因为本次工程整合的数据库多数为小容量的数据库,为了避免小容量数据库在整合时的性能问题,建议采用 NetApp DataOnTap 7G 中的 FlexVol 功能,首先创建Aggregate,每个控制器各有 1 个,每个 Aggregate 分配 6 块磁盘(减去 1 块热备 盘),然后在 Aggregate 磁盘中分配 FlexVol,每个 FlexVol 上只放置 1 个业务系统的 Data File或 Log File,所有业务系统数据库的 Control File 和 Binary File 可以统一放置在 1 个FlexVol 上。 这样做的好处是所有的数据库共享 Aggregate 磁盘的性能,避免热点盘的性能瓶颈。 iSCSI的容量调整 NetApp 存储设备具有非常完整的统一网络存储功能,可以在同一台设备上同时支持 FC SAN; NFS; iSCSI。 CIFS 等多种协议。 并且同一台设备中的 NAS 和 SAN 的 容量分配比例可以灵活调整。 具体的调整方式如下: 1) 释放不用的存储空间 (通过 FlexVol 的减少卷空间设定,或者将不用的系统卷数据摧毁) 2) 将新分配的空间配制成一个新的卷 3) 在新的卷中可以创建 FC/iSCSI LUN 或 NFS export 所有上述操作都可以由系统管理员独立完成(无需购买额外的 NetApp 服务)。 并且对于在 FCP 环境下创建的 LUN,可以输出到 iSCSI 的主机中,此时 iSCSI 主机不需要更改任何设置就可以访问其中的数据。 反之也是同样。 所有前述的配置都可以在半小时之内完成。 如果只是对 NAS 的数据共 享卷进行扩容,则只需要简单的增加卷容量就可以完成, 1 分钟内可以在线完成配置。 如果只是对 NAS 的数据共享卷进行容量缩减,也可以在 1 分钟内在线完成。 19 如果只是针对 LUN 进行扩容,则可以通过运行 SnapDrive for Windows 软件完成 LUN 的动态扩展。 针对 LUN 的容量缩减在技术原理上来说不能在网络存储设备侧实现。 IP 网络相关设计 由于本方案采用了支持 NAS( IP SAN)的网络存储系统,所以在客户端和 FAS 存储系统之间需要采用高性能的千兆以太网连接。 为了可靠性考虑,需要采用冗余的网络连接设计。 建议使用二台千兆交换机专门用于客户端和 NetApp FAS 存储系统之间的连接。 FAS2020A 设备中每一个存储控制器的 2 个 GE 千兆接口使用 VIF(虚拟端口 /中继, Ether Channel/Trunking 以太网通道聚集)中的 SingleMode 以太网通道技术作为 1 主 1 备方式,分别连接到二台千兆交换机中。 当然,也可以采用以下的网络连接方式: FAS2020A 设备中每一个存储控制器的 2 个 GE 千兆接口使用 VIF(虚拟端口 /中继, Ether Channel/Trunking 以太网通道聚集)中的 MultiMode 以太网通道技术作为冗余负载均衡方式,连接到同一台的高性能核心千兆交换机中。 如果 FAS 存储系统的主用 GE 千兆端口发生故障,则可以自动切换到备用端口。 这里需要注意的是在一些复杂网络环境下,交换机为了避免形成环路而需要启用生成树STP 协议。 在此时发生端口切换时,由于交换机需要重新计算 Spanning Tree(收敛),如果采用普通的 STP 协议则需要较长的时间(缺省约 50 秒)才能完成收敛。 这里建议在和 FAS 存储系统及前端交换机相连的端口上使用千兆交换机的 PortFast 配置,此时交换机端口可以 在用户端口状态变化时立即完成切换(直接进入 Forwording 状态)而不需要经由 STP 协议完成切换。 存储虚拟化管理 FlexVol 技术不仅通过增加底层 IO 的分散度大大提升了数据访问的性能,同时其独有的存储共享池的技术,支持不同应用在存储空间上的真正共享和调剂,极大的提高了存储空间的利用率,简化了存储空间管理的复杂度。 而一般的预分配存储空间的管理方法,是在业务管理人员所提出的空间需求的基础上给每个应用系统分配一定的空间,这个空间分配是固定,分配给每个应用的空间都是一个给定大小的实际空间,不管此应用实际使 用空间的大小,它都占用分配给它的物理空间,而再次调节这些空间是一件非常耗时的操作,且在这段时间内会影响应用的正常运行。 因此这种传统的方式往往会导致用户的某些 20 应用由于预先分配的空间过小需要扩容而同时还有大量的应用手里还有许多空闲的空间没被使用,但是又无法调剂给那些需要扩容的应用。 用户唯一能解决此问题的办法就是继续购买容量,这样就会进入一个系统越扩容导致的空间浪费越大,而空间浪费越大越需要频繁扩容的恶性循环,最终造成用户存储空间利用率低下和存储空间管理复杂的后果。 而Netapp 的 FlexVol 所提供的先进的存储 空间的管理和使用策略完全避免的这些问题。 Flexible Volumes 的概念 Flexible Volumes 是一个划时代的新技术,所有的卷被视为逻辑的数据容器,同时可以在不破坏底层物理存储结构的前提下被独立的设置、调整大小,管理和移动。 NetApp FlexVol 技术提供了真正的存储虚拟化解决方案,能够缩减开销和资本费用,减少业务中断并降低风险,同时还具有很高的灵活性,可以快速方便地适应企业不断变化的需求。 FlexVol 技术可以自动集中存储资源,便于您在一个大型磁盘池中创建多个灵活的卷。 有了这一 灵活性,您就可以简化操作,最大限度地提高利用率和效率,并可以快速、无缝地进行修改。 利用 NetApp 存储解决方案,您可以随时随地根据需要以最低成本增加存储容量,并且无需中断业务运作。 如下图 1 所示,一个 Aggregate 被定义为给卷( Volumes)分配空间的许多磁盘的池( pool)。 从管理者的角度来看,卷仍保持着对主要项的数据管理。 但由于是对管理者透明, Flexible Volumes 现在面向的是逻辑项而不是传统的物理存储了。 Flexible Volumes 因此不再受限于它们存在的磁盘的限制了。 你可以 在一个存储的 “池 ”中定义一个你需要多大的空间的 FlexVol,而不是由你创建卷所在的磁盘个数硬性规定。 一个 FlexVol 也可以不需要停机任意收缩或者扩展。 同时 Flexible Volumes 可以在Aggregate 所拥有的所有物理磁盘上实现条带化。 对于那些对性能敏感的应用来说,Flexible Volumes 比那些由磁盘个数限定大小的卷拥有更好的性能。 21 7G以后的 FlexVol 存在于 Aggregate 中。 性能的提高 在 Data ONTAP 7G 中, RAID 组仍由磁盘组成,其中包含一个校验盘(如果是RAIDDP™ 则需要两块校验盘)和一定数量的数据盘。 以前 Data ONTAP 将一个或多个RAID 组组成一个卷( Volume)。 这种。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。