吉通上海公司idc方案项目建议书(编辑修改稿)内容摘要:

te policies)限制或保证每个单独对话的 带宽,抑制那些贪婪的应用通信,或者保护对时延敏感的流量。 比如,一个 HTTP cap 会使 Web 游览避免使用他人的带宽。 而且获得保证的音频或视频流动速率,避免出现恼人的不稳定性。 速率政策是为应用提供没有被使用的带宽,所以,昂贵的带宽从不会被浪费。 测量、分析和生成报表 网络管理员在制订一项带宽管理策略之前及之后必须分析其网络应用通信的模式,以测量其是否成功。 带宽管理将跟踪平均和高峰通信量水平,计算在重新传输上所浪费的带宽比例,突出最主要用户和应用程序,并且测量性能。 网络总结以及特定上下文的报表提供了对网络 趋势的轻松访问。 响应时间特征允许你测量性能,设置可接受性标准,并跟踪响应质量是否坚持了标准。 流量控制和监视控制 IDC 的带宽管理是非常复杂的业务和技术控制,所以,需要一个简单易用的进行操作的管理界面。 通过这一界面,网络管理员可在任何时候、任何地方,通过网络来配置、控制和监控带宽分配情况。 轻松部署 硬件带宽管理器通常位于网络瓶颈上,通常在路由器和核心交换机之间。 为了网络性能的考虑,带宽管理器需要与现有的网络顺利集成,不需要任何新的协议或者重新配置路由器,也不需要修改拓朴结构和桌面。 它不能是一个网 络故障点,如果带宽管理器发生故障或者被关掉,它需要会像一根电缆一样发挥作用。 用于 IDC 的硬件带宽管理器在当前市场上主要有 Alteon公司、 Packeteer 公司和Intel 公司的带宽管理器。 (海量营销管理培训资料下载 ) 220 利用路由器和交换机的特定 QOS( Quality of Service)技术,也能实现带宽管理。 比如 Cisco 公司的 CAR( Committed Access Rate)技术。 对本地带宽管理也可以通过四层交换机来实现。 Foundry, Alteon和 Cisco 公司的四层交换机都支持本地带宽管理。 5 内容交换 内容交换提 供数据流的负载均衡以提高 IDC 的网络性能,特别是服务器的响应性能。 内容交换同时对应用层的数据提供适当的控制以满足应用的要求,比如对 SSL( Security Socket Layer)连接的控制。 这在本节将有具体阐述。 内容交换服务内容交换服务基本托管服务 网站托管 ( 共享 ) 网站托管 ( 独占 ) 主机托管高级安全服务P ri v a t e V LAN专用防火墙、专用入侵探测安全审计I n t e rn e t连接服务C om m i t t e d A c c e s s R a t e服务类别 ( C O S )内容交换服务基于 IP 的负载均衡URL 负载均衡Co o ki e 负载均衡语言优化终端设备类型优化跨地域负载均衡 基于 IP 的负载均衡 数据中心的服务提供商除了向客户提供一些基本的主机托管和网站托管服务外,还需要提供一些更高级别的增值服务来吸引用户、拓展市场。 作为数据中心托管用户的主体,例如 ICP 网站、电子商务网站、企业网站等,它们托管或租用在数据中心的大部分服务器都是基于 Inter TCP/IP 协议的应用服务器,例如 (海量营销管理培训资料下载 ) 221 WWW服务器、 FTP 服务器等。 对于这些用户而言,如何保证这些关键服务器的高可靠性、高可用性和可扩展性是非常重要的。 因此,如果数据中心的服务提供商能够给客户提供这种高可用性服务,就可以像保险公司的保险费一样,来向客户收取一定的增值服务费用。 并且对数据中心的各种类型用户都带来好处:对主机租用用户来讲,他们的服务器硬件本身都是租用数据中心的,因此自然希望数据中心能够对服务器系统的可用性提出更高的保证;对主机托管用户来讲,尽管服务 器是自身携带的,但是除了极少部分大的网站有资金、有技术能力来自行解决关键服务器系统的高可用性问题外,大多数的网站并不具备这样的条件,他们希望数据中心服务提供商能够作为他们的 Virtual IT 部门,能够给他们提供一个完善的解决方案。 下面我们以数据中心中最为普遍的服务- WWW服务为例,来详细讲解如何实现 Inter 服务的高可用性,即关键服务器系统的高可用性。 以前作为一个网站通常采用的方式是 WWW 服务器由一台硬件配置非常高的 UNIX 服务器来担当,尽管成本昂贵,但这样做仍然不能保证它的可靠性、可用性、可维 护性:一是因为一台服务器仍作不到硬件级的完全容错,保证不了可靠性;二是因为一台服务器的网络带宽有限,保证不了可用性;三是因为当这台服务器进行硬件或软件升级时,不可避免地要中断 WWW 服务,保证不了可维护性。 基于上述原因,人们提出了 DNS 轮询方案( DNS- Round- Robin)试图解决 WWW服务的可用性问题,即多台 WWW镜像主机在 DNS 中对应同一域名,当用户访问 WWW,要求 DNS 服务器解析域名时, DNS 服务器按 DNS 请求的先后顺序把域名依次解析成其中一台 WWW主机的 IP 地址,从而把任务平均分担到数台 WWW主 机上,来提高 WWW服务的整体性能。 它的优点是:实现简单、实施容易、成本低;但是,它的缺点也非常明显:不是真正意义上的负载均衡, DNS 服务器将 HTTP 请求平均地分配到后台的 WWW服务器上,而不考虑每个 WWW服务器当前的负载情况;如果后台的 WWW服务器的配置和处理能力不同,最慢的 WWW 服务器将成为系统的瓶颈,处理能力强的服务器不能充分发挥作用;另外未考虑容错,如果后台的某一台 WWW 服务器出现故障, DNS服务器仍会把 DNS 请求分配到这台故障服务器上,导致对客户端的不能响应。 (海量营销管理培训资料下载 ) 222 而这最后一个缺点是致命的,有可能造成相当 一部分客户不能访问 WWW服务,并且由于 DNS 缓存的原因,造成的恶劣后果要持续相当长一段时间(一般 DNS刷新周期约 24 小时)。 此外,还有一些基于群集( Cluster)技术的软件解决方案来保证 WWW服务的高可用性。 它的通用做法是通过在操作系统的基础上安装操作系统厂商的群集软件或第三方的群集软件(绝大多数支持 WWW服务的群集),例如 Microsoft Cluster Server、 Turbo Linux、 Cluster Server 等,来做到应用级的互为备份或负载平衡。 互为备份( Active/Standby)方 式下,其中一台服务器缺省处于活动状态( Active/Primary),而另一台处于睡眠状态( Standby/Backup),当主服务器系统死机或应用不能正常服务时,备份服务器会自动变成活动状态,从而接管原主服务器的任务,保证应用能够继续服务。 负载平衡方式下,可以有多台服务器,每一个服务器都承担一定的应用。 它们之间即可以互为备份,也可以有专门一台备份服务器,它在群集正常时不承担任何任务,但是当群集中的某一台服务器发生故障时,它会自动激活,从而接管故障服务器的任务。 但是,它也存在以下缺点:安装、配置复杂,难于维 护和管理;群集软件与服务器的硬件平台和操作系统密切相关,不能做到设备无关性和无缝升级;实现负载平衡的算法简单,一般是根据轮询( Round Robin),有些 WWW群集软件可支持设定权重( Weighting)算法,但权重( weighting)是人为设定,并不能客观反映每一台服务器的 HTTP请求响应能力以及当前负载情况;与硬件实现方案( Layer4 的负载平衡交换设备)比较起来,性能较低,另外支持的 Web Site 的规模较小( WWW 服务器最多可以到 16 台);不能实现 HTTPS 等特殊应用的负载平衡(这是因为在 HTTPS 应用中,客户端和服务器端要进行身份验证、交换证书和密钥,所以客户端和服务器端应一一对应,同一客户的请求应由同一台服务器来处理)。 当然更为重要的一点是,作为数据中心的托管用户,他们往往不希望数据中心服务提供商在他们的服务器上安装任何软件。 正因为上述的解决方案存在这样或那样的问题,因此,随着 Inter 技术的发展,出现了基于应用、甚至基于内容的负载平衡设备,即我们通常所说的第四层、第七层智能负载平衡设备。 它们通过硬件技术或专用的 ASIC 芯片来实现WWW 等应用服务器的负载均衡和高可用性解决方案。 通过这种 技术可以提高 (海量营销管理培训资料下载 ) 223 WWW服务器的整体处理能力,并提高整个服务器系统的可靠性、可用性、可维护性、可扩展性,保证 WWW服务质量的 QOS,提供基于 URL、基于内容的交换(当采用第七层负载平衡设备时),最终用一组低处理能力、低实现成本的主机提供大规模、高性能、可扩展的 WWW 服务。 以下是关于采用第四层负载平衡设备实现 WWW 服务的负载平衡的一般介绍:在第四层负载平衡设备上设置 WWW服务的虚拟 IP地址( Virtual IP Address),这个虚拟 IP 地址是 DNS 服务器中解析到的 WWW服务器的 IP 地址,对客户端是可见的。 当 客户访问此 WWW 应用时,客户端的 HTTP 请求会先被第四层负载平衡设备接收到,它会基于第四层交换技术实时检测后台 WWW 服务器的负载,根据设定的算法进行快速交换,交给当前最可用、负载最轻的服务器来处理。 常见的算法有以下几种:轮询( Round Robin)、权重( Weighting)、最少连接( Least connection)、随机( Random)、响应时间( Response Time)等。 通过这种技术可将大量的、并发性的用户请求分配到多个服务器来处理,从而降低单个服务器的负载,避免服务器的死机或响应延迟过大。 另外,这种负载平衡设备还可以几乎实时地检测到后台服务器的硬件、操作系统、网络甚至应用级别的状态,从而避免客户的请求被失效的服务器处理。 应用负载均衡 第七层应用负载平衡设备是近一、两年才出现的最新技术,它主要用于实现WWW应用的负载平衡和服务质量保证。 它与第四层负载平衡设备比较起来:第七层负载平衡设备不仅能检查 TCP/IP 数据包的 TCP、 UDP 端口号( Transportation Layer),从而转发给后台的某一个服务器来处理,而且它能从会话层( Session Layer)以上来分析 HTTP 请求的 URL,根据 URL的不同将不同的 HTTP 请求交给不同的服务器来处理(可以具体到某一类文件,甚至某一个文件),甚至同一个 URL请求可以让多个服务器来响应以分担负载(当客户访问某一个 URL,发起 HTTP 请求时,它实际上要与服务器建立多个会话连接,得到多个对象-Object,例如。 txt/。 gif/。 jpg文档,当这些对象都下载到本地后,才组成一个完整的页面)。 (海量营销管理培训资料下载 ) 224 跨地域负载均衡 前面讲述的都是关于如何在本地局域网实现 WWW 等应用服务器的负载平衡,那么如何实现应用服务器的广域网上的负载平衡,从而保证应用的冗灾备份,以及 如何有效的根据客户的地域分布、广域网络的连通状态或延迟时间来将客户定向到他们最适合访问的站点呢。 这些都涉及到广域网的负载平衡技术( Global Server Load Balance),常见的广域网负载平衡产品都是基于 DNS 重定向原理来实现的,即当客户访问某一个网站时,例如。 mysite。 时,客户的关于这个网站的 DNS 域名解析请求会被这个广域网的负载平衡设备来处理,而这个广域网的负载平衡设备会基于客户端的 IP 地址范围、客户端与各节点的网络延迟、各节点的状态及负载等参数,然后根据一定的算法来判断那 个节点最适合用户访问,从而将这个节点的 IP 地址或 VIP 地址返回给客户。 常见的广域网负载平衡算法有:轮询( Round- Robin)、加权轮询( Weighted Round- Robin)、随机( Random)、最少连接数( Least Connection)、最低 CPU利用率( Lowest CPU Utilization)、 HTTP 重定向( HTTP Redirection)等。 Cookie 和 SSL 会话的连接锁定 为了使得一个电子商务的事务成功,客户必须被锁定到指定的服务器上直到事务完成。 保持到一个服务器持续的 连接,称为“锁定”,这是任何创造利润的电子商务 WEB 站点的关键。 Web 交换机可以读到分布在多个包中的 Cookie 并有能力识别一个 Cookie。 Cookie 可以由 Web 交换机内部产生或在服务器上产生。 一旦 Cookie 被设定,用户的浏览器就被透明地刷新。 可以产生 Cookie 对电子商务站点基于 Cookie 使流量具有优先级是有益的。 如果进入一个请求并且提供了一个 Cookie,用户的优先级字段就会决定那个服务器群接受请求。 如果没有提供 Cookie,请求要么被送到认证服务器,要么交换机内部产生一个新的 Cookie。 这个请求就有一个有优先级设置的 Cookie,这个优先级会把用户定向到合适得服务器群。 保护基于 Web 的商务的最常用的方法就是使用流行的 SSL( Secure Socket Layer)协议。 SSL是端到端的加密机制,是当今 Web 商务加密的主要方法。 (海量营销管理培训资料下载 ) 225 基于 SSL会话 ID维持持续性优化了电子商务的商务完整性,保证了安全和性能的。
阅读剩余 0%
本站所有文章资讯、展示的图片素材等内容均为注册用户上传(部分报媒/平媒内容转载自网络合作媒体),仅供学习参考。 用户通过本站上传、发布的任何内容的知识产权归属用户或原始著作权人所有。如有侵犯您的版权,请联系我们反馈本站将在三个工作日内改正。