emc存储最佳实践手册内容摘要:

的因素。 [编辑 ] C. Plaid 为高带宽的设置 plaid 在以下几个原因使用在高带宽的应用里面: plaid 可以增加存储系统的协作(并行访问)。 plaid 允许多于一个的主机 HBA 卡和 CLARiiON 的存储运算器( SP)共同为一个 volume 所用。 非常大的卷可以被分布到多于一个的 CLARiiON系统之上。 增加协作 Plaid 在应用是单线程(也就是说,读一个单一的大文件)的时候会比较有用。 如 果应用的 I/O 的大小正好跟卷管理器的条带大小一致,那么卷管理器可以访问那些可以包装成卷的并发的 LUN。 从多个存储器分布式访问 跨越存储系统,正如在图三的配置 B 里面所演示那样,仅仅当文件系统的大小和带宽要求需要这样的一个设计的时候,才被建议使用。 例如,一个 30TB 的地质信息系统数据库,要求的写的带宽超过了一个 array 所能达到的极限,将会是一个多系统 plaid 的候选者。 必须注意的是,一个软件的更新或者任何存储系统的出错 — 例如因为一个存储系统上的一个组件的出错而导致的写缓存的停用 — 将会影响到整个文件系 统。 [编辑 ] D. Plaids and OLTP OLTP 应用是难以去分析,也难以去忍受一些热点。 Plaids 是一种有效的策略来使 I/O 从多个轴来分布式访问。 一个可以让很多个磁盘处于忙碌状态的应用,将会从多个硬盘数中得益。 注意一些卷的管理建议 小的主机 stripe( 16KB 到 64KB)。 这对使用一种 stripe的 Raid type 的 CLARiiON 来说并不正确。 对于 OLTP,卷管理器的 stripe element应该跟 CLARiiON 的 stripe size(典型来说是 128KB 到 512KB)。 Plaid 对于 OLTP主要的开销,在于大部分的用户以跨 plaid 的方式结束。 跨 plaid 磁盘 — 连同磁盘组 — 会变得更大;因此,用户也常常会因为好几个主机卷被同一个 CLARiiON 的 Raid groups 所创立(一个跨 plaid— 看图三中的配置 C) 而结束。 这个设计的基本原理是在于以下的情况:对于任何一个卷组的随机行为的爆发,将会分布到多个磁盘上去。 这个的不足之处在于测定卷之间的相互作用,是相当困难的。 但是,一个跨 plaid 也有可能是有效率的,当以下情况存在的时候 : . I/O sizes比较小( 8KB 或更小)和随机的访问 . 卷是受制于一天中不同时间的爆发,而不是同一时刻。 [编辑 ] 5. 主机 HBA的影响 用来实现主机附加的拓扑,取决于系统的目标。 高可用性要求双 HBA卡和到存储器的双路径。 双路径对性能的影响,主要看管理者如何去从系统资源里得到负载均衡的能力。 在对存储系统调优的时候,必须牢记 HBA 卡和驱动的作用。 EMC的 ELab提供了设置磁盘和固件的建议,而我们必须要按这些建议来操作。 [编辑 ] A. HBA 卡的限制 HBA 卡的固件, HBA 卡使用的驱动的版本,和主机的操作系统,都可以影响到在存储阵列中的最大量的 I/O size 和并发访问的程度。 [编辑 ] B. Powerpath 如果操作系统可以使用, Powerpath 这个软件应该总是要使用的 — 不管是对于一个单一连接到一个交换机的系统(允许主机继续访问,当软件升级的时候)还是在一个完全冗余的系统。 除了基本的 failover 之外, Powerpath 还允许主机通过多个存储处理器( SP)的端口来连接到一个 LUN 上面 — 一种我们通常称之为多路径的技术。 Powerpath 通过负载均衡算,来优化多路径访问 LUN。 Powerpath 提供了几种负载均衡的算法,默认的那 种 ClarOpt是我们所推荐的。 ClarOpt 可以调整传输 byte 的数量,正如队列的深度一样。 连接到所有目前的 CLARiiON 的型号的主机,都可以从多路径中获益。 直接连接的多路径需要至少两张 HBA 卡;实际的 SAN 多路径需要两张 HBA卡,其中的每一个都会被分配到多于一个 SP 端口的区域。 多路径的好处在于:  在同一个 SP 中,可以从一个端口 failover到另一个端口,修复一个事件的系统工作。  在 SP的端口和主机 HBA卡中的负载均衡  从主机到存储系统中获得更高的带宽(假设主机里,路径能使用 足够多的 HBA 卡) 当 Powerpath 提供了所有可行路径的负载均衡,这会带来一些附加的开销:  一些主机的 CPU资源会被一般的操作所使用,正如会被 failover 的时候使用。  在一些情形下,活跃的路径会增加一些时间来 failover。 ( Powerpath 在尝试几条路径之后,才会 trespass 一个 LUN 从一个 SP到另一个 SP) 因为这些事实,活跃的路径应该受到限制,通过 zoning,到两个存储系统的端口对应一个 HBA 卡来影射到一个被主机绑定的存储系统。 一个例外是,在从其它共享存储系统端口的主机所爆发 的环境,是不可预知和严峻的。 在这个情形下,四个存储系统的端口都有一个各自的 HBA 卡,这是可以实现的。 [编辑 ] 6. MetaLUNs MetaLUN 是一个所有 CLARiiON 系列存储系统都特有的功能。 我们从好几个方面来讨论什么时候和怎么用 metaLUN。 [编辑 ] A. 对比 metaLUN 和卷管理器 在一个 CLARiiON 存储系统, metaLUN 被当作一个在 RAID 引擎之上的层,在功能上来说相似于主机上的一个卷管理器。 但是,在 metaLUN 和卷管理器之间还是有很多重要的明显的区别。 单一的 SCSI 目标 对比 很多的 SCSI 目标 要创建一个卷管理器的 stripe,所有构成的 LUN 必须设定成可以访问到主机的。 MetaLUN 要求只有一个单一的 SCSI LUN 被影射到主机;这个主机并不能看到组成这个 metaLUN 的多个 LUN。 这会让管理员在以下几个情形下得益:  对于因为 OS 限制而有受限制的 LUN 可用的主机  对于那些增加 LUN 导致 SCSI 设备重编号的主机;经常一个内核需要重建,用来清除设备的条目。 在这些情形下,使用 metaLUN 而不是卷管理器会简化在主机上的管理。 没有卷管理器 不是所有的操作系统都有卷管 理器的支持。 MS 的 Server Win2020/2020 集群使用 Microsoft Cluster Services( MSCS)并不能使用动态磁盘。 MetaLUN 是一个可以为这些系统提供可扩展的, stripe 和 concatenated(连接的)卷的解决方案。 卷的复制 如果卷是要被使用 SnapView, MirrorView或者 SAN Copy的存储系统所复制的话,一个可用的镜像会要求持续的处理分离的能力。 采用 metaLUN 会简化复制。 卷访问共享的介质 当一个使用了 stripe 或者 concatenate 的卷必须要允许在主机间共享访问,一个卷管理器不能许可共享访问,而 metaLUN 可以使用并实现这个功能。 MetaLUN可以在两个的主机存储组之间应用。 存储处理器( SP)的带宽 卷管理器的卷和 metaLUN 之间的一个重要的显著区别是, metaLUN 是可以被一个CLARiiON 存储系统上的一个存储处理器完全的访问。 如果一个单一的卷需要非常高的带宽,一个卷管理器仍然是最好的方式,因为卷可以从不同的 SP 上的 LUN上来建立。 一个卷管理器允许用户访问存储器,通过很多个 SP的集合起来的带宽。 卷管理器和并发 访问 正如在“ Plaids: 为高带宽设置”章节里指出的那样,基于主机的 stripe 的卷的使用,对于有多线程的大的 request(那些有多于一个卷 stripe segment 组成的 request),会有比较高的效果。 这会增加存储器的并发访问能力。 使用metaLUN 不会带来多线程上好的效果,因为 ponent LUN 上的多路复用是由存储系统来实现的。 [编辑 ] B. MetaLUN 的使用说明和推荐 MetaLUN 包含了以下三种类型:条带的 (stripe),结和的 (concatenate),和混合的 (hybrid)。 这个章节会做出几个通常的推荐。 对那些想要更多细节的人来说,接下来的章节中将会定位建立 metaLUN 和相关每种类型的优点的策略和方法。 什么时候使用 metaLUN 通过前面的卷管理器的讨论,应该在以下情形下使用 metaLUN:  当大量 的存储整合变得有必要的时候(每一个卷都需要非常多的很多磁盘)  当要求 LUN 的扩展的时候 当你建立一个 metaLUN 的时候,你可以控制以下的要素: ponent LUN 的类型,metaLUN 的类型,和 stirpe multiplier(增加的)。 Component LUN 的类型 用来绑定在一个 metaLUN上的 LUN的类型应该能反映 metaLUN上要求的 I/O的形式。 例如,使用在这份白皮书里面建议的各种不同的 Raid 的类型(“ Raid 的类型和性能”提供了更多的信息),来匹配 I/O 的形式。 当绑定 ponent LUN 的时候,使用以下规则:  当为 metaLUN 绑定 LUN 的时候,总是使用默认的 stripe element size(128 block)  总是激活读缓存和写缓存  确保为 ponent LUN 设置的 writeaside的大小为 2048。 ( writeaside 在“ RAID 引擎缓存”里面会被提到)  避免在 RAID 5 的磁盘组里使用少于 4块的硬盘(或者说,至少是要 3+1 模式)  使用 RAID 1/0 磁盘组的时候,至少使用 4块硬盘(新的 1+1 并不是对 metaLUN 的一个 好的选择)  不要使用 ponent LUN 位移来校正 stripe的对齐。 MetaLUN 有他们自己的位移值。 MetaLUN 的类型 一般来说,尽可能的使用 stripe 方式的 metaLUN,因为他们能体现出我们能预知的更好的性能。 Concatenat 一个单独的 LUN 给一个 metaLUN,会更加方便;这可能在扩展一个对性能并不敏感的卷会更加合适。 Hybrid metaLUN 使用 stripe 的方式捆绑 concatenate 的 LUN。 这个方式被用来克服 stipe 扩展的成本(这样会比较低)。 一个采用 stripe 方式的 metaLUN 可以通过 concatenate另一个 stripe ponent的方式来扩展。 这样保持了 stripe ponent 可预计的性能,也允许用户用来扩展一个 stripe 的 metaLUN 而不用队已经出线的数据的重组(性能将会受到影响,当重新条带化操作进行的时候)。 图四展示了这一点。 图四 hybridstriped metaLUN 在理想的情况下,在扩展 stripe 设置的 LUN 将会分布在同样 RAID 类型的不同的RAID 组里面,也会表现得更原始的 stripe ponent 一致。 大部分最直接的方式是使用同一个 RAID 组作为基础的 ponent。 这个 RAID 组是被最先扩展的,以便使空间变的可用。 这个方式在“ metaLUN 扩展方法”里会演示。 RAID 组的扩展是更加有效率的,对比 metaLUN restripe(把这个重分条过程设置成中等优先级别),也会对主机性能有更小的影响。 MetaLUN stripe multiplier stripe multiplier 决定了 metaLUN 的 stripe element size: Stripe multiplier * base LUN stripe size = metaLUN stripe segment size MetaLUN stripe segment size 是任何 ponent LUN 能收到的最大的 I/O。 所有的高带宽性能和随机分布都要求 metaLUN stripe element 的大小为 1MB左右。 而且,在下面的 RAID组还可能被扩充。 我们需要确保 metaLUN stripe element是足够大,大到跟写的完全的 stripe 一样,用来扩展 ponent LUN(图表 1)。 使用以下规则来设置 stripe multiplier:  除非使用 RAID 0,使用最少四个磁盘的磁盘组,来组成作为 ponent LUN 主机的 RAID组。  为磁盘组的大小来测定选择有效的磁盘个数。 例如,六个磁盘的 RAID 1/0 是 3( 3+3)。 五个磁盘的 RAID5 是 4( 4+1)  通过图表 1,为有效磁盘的个数而选择multiplier 如果有疑问,使用 4作为 metaLUN 的 stripe multiplier。 对大部分情。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。