当前位置:首页 » 观全球化 » 数据中心网络架构与全球化服务
扩展阅读
国际贸易专业男女比例 2020-08-26 05:18:03
宁波外贸网站制作 2020-09-01 16:26:57
德驿全球购 2020-08-26 04:14:27

数据中心网络架构与全球化服务

发布时间: 2023-02-21 14:20:17

1、数据中心网络,什么是数据中心网络

数据中心网络(Data Center Network)是应用于数据中心内的网络,因为数据中心内的流量呈现出典型的交换数据集中、东西流量增多等特征,对数据中心网络提出了进一步的要求:大规模、高扩展性、高健壮性、低配置开销、服务器间的高带宽、高效的网络协议、灵活的拓扑和链路容量控制、绿色节能、服务间的流量隔离和低成本等。在这样的背景下,传统的三层架构受到挑战,网络扁平化、网络虚拟化以及可以编程和定义的网络成为数据中心网络架构的新趋势。维基百科给出的定义是“数据中心是一整套复杂的设施。它不仅仅包括计算机系统和其它与之配套的设备(例如通信和存储系统),还包含冗余的数据通信连接、环境控制设备、监控设备以及各种安全装置”。谷歌在其发布的《The Datacenter as a Computer》一书中,将数据中心解释为“多功能的建筑物,能容纳多个服务器 以及通信设备。这些设备被放置在一起是因为它们具有相同的对环境的要求以及物理安全上的需求,并且这样放置便于维护”,而“并不仅仅是一些服务器的集合” 。采用internet接入时,只需要一台能上网的PC加数据中心软件即可。文中路由器指的是一般公司上网时是通过路由器上网的,此时须在路由器上做一些设置。也可直接把宽带接入线接至PC中来实现。不需要ISP开通服务。但在根据获取的外网IP地址及方式选择采用合适的动态域名软件。

2、云计算数据中心光互连网络架构

数据中心是云计算的核心支持平台,云计算的发展对数据中心网络架构提出了严峻的挑战,传统电互连网络架构难以在带宽、设备开销、能耗、管理复杂度等方面同时满足云应用的要求,因此以低能耗、低开销、高带宽为特点的光互连网络架构出现并受到研究人员的广泛关注。

通过广泛的接入模式、共享的资源架构、按需的服务部署及灵活的容量扩展,云计算在近年来获得了广泛的部署和应用。数据中心是云计算的核心支撑平台,随着云应用的广泛部署,数据中心的通信模式和业务需求出现了根本性变化,这些变化具体包括:

(1)数据中心的网络规模和负载出现了指数级增长;

(2)主要的流量模式由传统“南北向流量”转变为“东西向 流 量”;

(3)更 多 时 延 敏 感 和 数 据 密集型业务在数据中心内运行;

(4)一些虚拟化技术,如虚拟机实时迁移,需要网络提供更好的支持,这些变化对数据中心网络架构提出了更高的要求,传统数据中心网络在对分带宽、传输时延、网络可扩展性、容错性、资源利用率等方面均无法满足云业务的需求。对此,研究人员提出了新的电互连网络架构, 如Fat Tree、VL2、DCell、BCube、CamCube和Snowflake等。尽管上述架构能够有效满足新的云业务要求并改善数据中心的网络性能,但这些网络架构同时也带来了拓扑结构复杂、线缆开销过大、设备数量过多、网络能耗难以优化等问题。究其根本原因在于,随着网络容量的指数级增长,基于COME的电子元件几乎达到了其带宽的上限,因此,光互连技术得到研究人员的极大关注。与电互连技术相比,光互连技术能够更好地满足云计算数据中心对能耗和带宽的需求,尤其随着绿色计算、GreenCloud等概念的提出,数据中心光互连技术成为网络节能的重要方式。

近年来,结合云计算数据中心的流量模式和新型光交换器件,研究人员提出了多种新的光互连网络架构,实验和仿真表明,这些架构在吞吐、时延、灵活性、能耗等方面优于传统的电互连网络架构,但相对于电互连网络,工业

界和学术领域对于数据中心光互连网络的研究尚处于起步阶段,其中很多技术挑战尚未得到很好的解决,随着云计算的发展,服务、计算、存储、网络将进一步融合为一个整体方案,相对于发展迅速的计算技术和存储技术,网络技术的革新相对缓慢。因此,深入研究数据中心网络,尤其是具有革新性的光互连网络,对于未来网络技术和云计算技术的创新发展都具有重要的意义。

3、idc数据中心是什么

互联网数据中心(Internet Data Center,简称IDC)是指一种拥有完善的设备(包括高速互联网接入带宽、高性能局域网络、安全可靠的机房环境等)、专业化的管理、完善的应用服务平台。

在这个平台基础上,IDC服务商为客户提供互联网基础平台服务(服务器托管、虚拟主机、邮件缓存、虚拟邮件等)以及各种增值服务(场地的租用服务、域名系统服务、负载均衡系统、数据库系统、数据备份服务等)。

互联网数据中心的基本架构:

1、互联网接入层:负责与CMNET的互联,保证IDC内部网络高速访问互联网,并负责汇聚网络内的汇聚层交换机,对IDC内网和外网的路由信息进行转换和维护IDC网络架构。

2、汇聚层:向下负责汇聚多个业务区的业务接入层交换机,向上与核心路由器进行互联。部分安全设备部署在该层用以对内部网络进行安全防范。大客户或重点业务可直接接入汇聚层交换机。

4、数据中心是什么?其系统结构和工作原理是怎样的呢?

数据中心是企业的业务系统与数据资源进行集中、集成、共享、分析的场地、工具、流程等的有机组合。从应用层面看,包括业务系统、基于数据仓库的分析系统;从数据层面看,包括操作型数据和分析型数据以及数据与数据的集成/整合流程;从基础设施层面看,包括服务器、网络、存储和整体IT运行维护服务。数据中心的建设目标是:1、全面建成公司总部和网省公司两级数据中心,逐步实现数据及业务系统的集中;2、建立企业数据仓库,提供丰富的数据分析展现功能;3、实现数据的唯一性与共享性;4、建立统一的安全体系,保证数据及业务系统的访问安全;5、结合数据中心建设,完善数据交换体系,实现两级数据中心间的级联;6、实现网络、硬件、存储设备、数据、业务系统和管理流程、IT采购流程、数据交换流程的统一集中;7、统一的信息管理模式及统一的技术架构,能够迅速地实施部署各种IT系统,提升管理能力。数据中心采用总部和网省两级进行部署,两级数据中心通过数据交换平台进行数据的级联。数据中心逻辑架构包含:应用架构、数据架构、执行架构、基础架构(物理架构)、安全架构、运维架构。应用架构:应用架构是指数据中心所支撑的所有应用系统部署和它们之间的关系。数据架构:数据架构是指每个应用系统模块的数据构成、相互关系和存储方式,还包括数据标准和数据的管控手段等。执行架构:执行架构是指数据仓库在运行时态的关键功能及服务流程,主要包括ETL(数据的获取与整合)架构和数据访问架构。基础架构(物理架构):为上层的应用系统提供硬件支撑的平台(主要包括服务器、网络、存储等硬件设施)。安全架构:安全架构覆盖数据中心各个部分,包括运维、应用、数据、基础设施等。它是指提供系统软硬件方面整体安全性的所有服务和技术工具的总和。运维架构:运维架构面向企业的信息系统管理人员,为整个信息系统搭建一个统一的管理平台,并提供相关的管理维护工具,如系统管理平台、数据备份工具和相关的管理流程。数据的获取与整合也叫ETL(Extract,Transact,Load),是在确定好数据集市模型并对数据源进行分析后,按照分析结果,从应用系统中抽取出与主题相关的原始业务数据,按照数据中心各存储部件的要求,进行数据交换和装载。数据的获取与整合主要分为数据抽取、数据转换、数据装载三个步骤。ETL的好坏,直接影响到数据集市中的数据质量。数据仓库区是专门针对企业数据整合和数据历史存储需求而组织的集中化、一体化的数据存储区域。数据仓库由覆盖多个主题域的企业信息组成,这些信息主要是低级别、细粒度数据,同时可以根据数据分析需求建立一定粒度的汇总数据。它们按照一定频率定期更新,主要用于为数据集市提供整合后的、高质量的数据。数据仓库侧重于数据的存储和整合。数据集市是一组特定的、针对某个主题域、部门或用户分类的数据集合。这些数据需要针对用户的快速访问和数据输出进行优化,优化的方式可以通过对数据结构进行汇总和索引实现。借助数据集市可以保障数据仓库的高可用性、可扩展性和高性能

5、给你10个路由器或交换机,你如何配置?(第1篇)

前几周有人问我,如果有一个环境中给你10多个交换机和路由器,应该如何配置。这是一个很好的问题,关键不在端口安全、Port Channel、STP、和路由的配置,而是在于针对终端应用服务特点选择相应适合的网络架构。

近十年来,虽然云服务的扩展性需求促进了相关解决方案快速发展,然而数据中心常见的网络拓扑仍然可以归纳为两种:传统的三层网络架构,和Leaf-Spine二层网络架构。

传统的三层网络架构由三层交换机组成:即访问层,聚合层(有时称为分发层)和核心层。服务器连接到其中一个边缘层访问交换机(常称Top of Rack Switch,或 TOR Switch),聚合层交换机则将多个接入层交换机互连在一起,所有聚合层交换机通过核心层交换机相互连接。核心层交换机还负责将数据中心连接到Internet。传统的数据中心过去采用的就是这种三层架构。

下图是我参与优化设计的有数万台服务器的传统数据中心网络架构示意图。

在这个拓扑中,除了经典的三层(分发路由器,网络分区汇聚路由器,服务器接入交换机)外,核心层还包括了: WAN核心骨干路由器,WAN发路由器,WAN优化加速器,LAN核心路由器,外部Choke路由器,Internet边界路由器,Transit,防火墙,用于联接数据包分析器的Network TAP。网络负载均衡器放在了聚合层。另外还有一个专用的OOB接入层,用于设备维护管理。

三层架构虽然容易部署、易于诊断,但是其已无法满足日益增长的云计算需求。三层架构面临的主要问题包括:低可扩展性、低容错性、内部服务器之间横截面带宽低、较高层超额使用(Oversubscription)、高层次的拓扑中使用的大型模块化交换机成本非常高。

我过去常采用以下这几个方法缓解三层架构中网络分离问题:
(1)、PVLAN: 专用VLAN,也称为端口隔离,是计算机网络中的一种技术,其中VLAN包含受限制的交换机端口,使得它们只能与给定的端口通信。这个常用于后端的NFS网络。
(2)、VRF虚拟化路由表,用于路径隔离。
(3)、GRE Tunnel。
(4)、使用一些Overlay network封装协议并结合一操作系统虚似化实现网络分离。

Leaf-Spine网络架构解决了传统三层网络架构所面临的Oversubscription和内部服务器之间横截面带宽问题。Leaf-Spine网络架构在过去几年里已开始接管主要的云服务数据中心。Leaf-Spine结构也称为Clos结构,其中每个Leaf交换机(ToR交换机)以全网状拓扑连接到每个Spine交换机。这是一种两层的Fat-tree网络。这种架构中Leaf之间只有一个跳,最大限度地减少了任何延迟和瓶颈。Spine网络的扩展非常简单,只要在需增长的情况下逐步添加Spine交换机。

Leaf-Spine架构使用定制的寻址方案和路由算法,而非传统的STP。根据网络交换机中可用的功能,可以使用第2层或第3层技术实现Leaf-Spine网格。第3层的Leaf-Spine要求每个链路都被路由,并且通常使用开放最短路径优先(OSPF)或等价多路径路由( ECMP )来实现的边界网关协议(BGP)动态路由。第2层采用loop-free的以太网fabric技术,例如多链接透明互联(TRILL)或最短路径桥接(SPB, IEEE 802.1aq)。其中,思科的FabricPath 和Brocade的Virtual Cluster Switching是基于TRILL发展而来的私有data plane。核心网络还可使用带有ECMP的动态路由协议通过第3层连接到主干网。华为、联想、Brocade、HP、 Extreme Networks等公司都有基于TRILL的产品或其它Leaf-Spine架构的解决方案。

Leaf-Spine结构的优点是:

(1)、使用所有链路互连,而不像传统网络中冗余链路被STP阻塞。
(2)、所有内部Leaf之间横向通信都是等距的,因此数据流延时时间是确定的。
(3)、Underlay的交换机配置和核心网络配置是固定的,因此变更Overlay Network的路由不需要更改核心网络。
(4)、产品安全区域能虚拟分离,扩展了VLAN和多租户安全性。
(5)、基础设施的物理网络可以和逻辑网络(Overlay network)分离。

Leaf-Spine结构也有些缺点,比如:

(1)、网络交换机的数量远远大于三层网络架构。
(2)、扩展新的Leaf时需要大量的线缆、并占用大量Spine交换机端口。
(3)、Spine交换机端口数量决定了最大可联接的Leaf交换机数量,也就决定了最大主机总数量。

下图是我参与过的一个公有云Leaf-Spine方案示意草图。

现代的数据中心部署中,我们一般将网络设备、服务器和机架在出厂时应模块化。对于使用Leaf-Spine 网络的数据中心,出厂时预装配成四种类型的标准工程系统:Transit 机柜, Spine 机柜, Fabric 机柜, 和 Server 机柜。Leaf 交换机和服务器一样被预装配于 Server 机柜,基本上做到开柜上电即可上线使用。

当下全球主流公有云基本上采用的都是Leaf-Spine 网络架构。然而,各家公有云服务商Leaf-Spine网络中的Underlay Network和Overlay Network使用的协议和方案有很大区别。比如,你可以基于Leaf-Spine架构使用VXLAN来设计你的SDN解决方案,也可以基于ECMP的BGP-labeled-unicast的underlay 网络,使用MPLS L3VPNs构建另一种多租户的数据中心SDN解决方案。

聊完了两种层数据中心网络架构,相信大家如有机会搭建新的网络时,应该知道如何选择您的网络架构方案了。

欢迎大家发表留言,谈谈你所熟悉的Leaf-Spine网络架构方案中,Underlay Network和Overlay Network使用的协议分别是什么。

参考资料:
(1)、 Building Multi tenant Data Centers with MPLS L3VPNs
(2)、 Cisco Data Center Spine-and-Leaf Architecture: Design Overview White Paper

6、践行AI战略:华为引领数据中心网络迈入人工智能时代

AI正在成为企业助力决策、提升客户体验、重塑商业模式与生态系统、乃至整个数字化转型的关键驱动力。

但在崭新的AI时代,数据中心网络性能也正在成为AI算力以及整个AI商用进程发展的关键瓶颈,正面临诸多挑战。

为此,华为以“网络新引擎 AI赢未来”为主题发布了业界首款面向AI时代数据中心交换机CloudEngine 16800,将人工智能技术创新性的应用到数据中心交换机,引领数据中心网络迈入AI时代。

AI时代数据中心网络面临三大挑战

当前,数字化转型的持续推进,正在提速驱动数据量暴增;同时,语音/视频等非结构化数据占比持续提高,庞大的数据量和处理难度已远超人类的处理能力,需要基于机器运算深度学习的AI算法来完成海量无效数据的筛选和有用信息的自动重组,从而获得高效的决策建议和智慧化的行为指引。

根据华为GIV 2025(Global Instry Vision)的预测,企业对AI的采用率将从2015年的16%增加到2025年86%,越来越多的企业将利用AI助力决策、重塑商业模式与生态系统、重建客户体验。

作为人工智能的“孵化工厂”,数据中心网络正成为AI等新型基础设施的核心。但与此同时,随着AI时代的到来,AI人工智能的算力也受到数据中心网络性能的影响,正在成为AI商用进程的一大瓶颈。

华为网络产品线总裁胡克文指出,AI时代的数据中心网络将面临以下三大挑战:

挑战1.AI算力。高性能数据中心集群对网络丢包异常敏感,未来的网络应该做到零丢包。但传统的以太网即使千分之一的丢包率,都将导致数据中心的AI算力只能发挥50%。

挑战2.大带宽。未来5年,数字洪水猛增近20倍,现有100GE的网络无法支撑。预计全球年新增数据量将从2018年的10ZB猛增到2025年180ZB(即1800亿TB),现有100GE为主的数据中心网络已无法支撑数据洪水的挑战。

挑战3.要面向自动驾驶网络的能力。随着数据中心服务器规模的增加,以及计算网络、存储网络和数据网络三网融合,传统人工运维手段已难以为继,亟需引入创新的技术提升智能化运维的能力,如何用新的技术去使能、把网络问题排查出来成为业界都在思考的问题。

华为定义AI时代数据中心交换机三大特征

从行业大势来看,随着以人工智能为引擎的第四次技术革命正将我们带入一个万物感知、万物互联、万物智能的智能世界,数据中心网络也必须从云时代向AI时代演进。在华为看来,数据中心需要一个自动驾驶的高性能网络来提升AI算力,帮助客户加速AI业务的运行。

那么,AI时代的数据中心网络究竟该如何建设呢?胡克文指出,“华为定义了AI时代数据中心交换机的三大特征:内嵌AI芯片、单槽48 x 400GE高密端口、能够向自动驾驶网络演进的能力。”

特征1.业界首款内嵌AI芯片数据中心交换机,100%发挥AI算力

从应用侧来看,刷脸支付的背后是上亿次图像信息的智能识别,深度 健康 诊断需要基于数千个算法模型进行分析,快捷网购体验离不开数百台服务器的智能计算。也就是说,新商业物种的诞生,产业的跨越式发展以及用户体验得以改变,强烈地依赖于人脸识别、辅助诊断、智能推荐等AI应用的发展。

但由于AI算力受到数据中心网络性能的影响,正在成为AI商用进程的关键瓶颈。为了最大化AI算力,存储介质演进到闪存盘,时延降低了不止100倍,计算领域通过采用GPU甚至专用的AI芯片将处理数据的能力提升了100倍以上。

CloudEngine 16800是业界首款搭载高性能AI芯片的数据中心交换机,承载独创的iLossLess智能无损交换算法,实现流量模型自适应自优化,从而在零丢包基础上获得更低时延和更高吞吐的网络性能,克服传统以太网丢包导致的算力损失,将AI算力从50%提升到100%,数据存储IOPS(Input/Output Operations Per Second)性能提升30%。

特征2.业界最高密度单槽位48 x 400GE,满足AI时代5倍流量增长需求

数据中心是互联网业务流量汇聚点,企业AI等新型业务驱动了数据中服务器从10G到25G甚至100G的切换,这就必然要求交换机支持400G接口,400GE接口标准化工作已经于2015年启动,目前针对数据中心应用已经完成标准化,400G时代已经来临。

集群的规模是数据中心架构演进的动力,经典的无阻塞CLOS理论支撑了数据中心服务器规模从千台、万台到今天10万台规模的发展,增大核心交换机容量是数据中心规模扩大的最常见手段。以一个1000T流量规模的数据中心组网为例,采用400GE技术,核心汇聚交换机需要5K个接口,相对100GE技术减少75%。

为此,CloudEngine 16800全面升级了硬件交换平台,在正交架构基础上,突破超高速信号传输、超强散热、高效供电等多项技术难题,不仅支持10G→40G→100G→400G端口平滑演进能力,还使得单槽位可提供业界最高密度48端口400GE线卡,单机提供业界最大的768端口400GE交换容量,交换能力高达业界平均的5倍,满足AI时代流量倍增需求。同时,CloudEngine 16800在PCB板材、工艺、散热,供电等多方面都进行了革命性的技术改进和创新,使得单比特功耗下降50%。

特征3.使能自动驾驶网络,秒级故障识别、分钟级故障自动定位

当数据中心为人工智能提供了充分的技术支撑去创新时,人工智能也给数据中心带来巨大利益,如借助telemetry等技术将异常信息送到集中的智能运维平台进行大数据分析,这极大提升了网络的运行和运维效率,降低运维难度和人力成本。但是当前计算和存储正在融合,数据中心服务器集群规模越来越大,分析的流量成千倍的增长,信息上报或者获取频度从分钟级到毫秒级,再加上信息的冗余,这些都使得智能运维平台的规模剧增,智能运维平台对性能压力不堪重负降低了处理的效率。如何减轻智能运维平台的压力,在最靠近服务器,最靠近数据的网络设备具有智能分析和决策功能,成为提升运维效率的关键。

CloudEngine 16800基于内置的AI芯片,可大幅度提升“网络边缘”即设备级的智能化水平,使得交换机具备本地推理和实时快速决策的能力;通过本地智能结合集中的FabricInsight网络分析器,构建分布式AI运维架构,可实现秒级故障识别和分钟级故障自动定位,使能“自动驾驶网络”加速到来。该架构还可大幅提升运维系统的灵活性和可部署性。

引领数据中心网络从云时代迈入AI时代

自2012年进入数据中心网络市场以来,目前华为已服务于全球6400+个用户,广泛部署在中国、欧洲、亚太、中东、非洲、拉美等全球各地,帮助互联网、金融、政府、制造、能源、大企业等多个行业的客户实现了数字化转型。

2017年华为进入Gartner数据中心网络挑战者象限;2018年进入Forrester数据中心SDN网络硬件平台领导者;2013-2018年,全球数据中心交换机厂商中,华为连续六年复合增长率第一,发展势头强劲。

早在2012年,华为就以“云引擎,承未来”为主题,发布了CloudEngine 12800数据中心核心交换机,七年以来这款面向云时代的交换机很好的支撑了数据中心业务弹性伸缩、自动化部署等核心诉求。

而随着本次华为率先将AI技术引入数据中心交换机、并推出面向AI时代的数据中心交换机CloudEngine 16800,华为也在引领数据中心网络从云时代迈入AI时代。

2018年,华为轮值董事长徐直军宣布:将人工智能定位为新的通用技术,并发布了人工智能发展战略,全面将人工智能技术引入到智能终端、云和网络等各个领域。而本次华为发布的业界首款面向AI时代数据中心交换机CloudEngine 16800,也是华为在网络领域持续践行AI战略的集中体现。

而作为华为AI发展战略以及全栈全场景AI解决方案的一个重要组成部分,CloudEngine 16800不仅是业界首款面向AI时代的数据中心交换机,还将重新定义数据中心网络的代际切换,助力客户使能和加速AI商用进程,引领数据中心真正进入AI时代。

7、数据中心网络之百家讲坛

最近因为写论文的关系,泡知网、泡万方,发现了很多学术界对数据中心网络一些构想,发现里面不乏天才的想法,但日常我们沉迷在各个设备厂商调制好的羹汤中无法自拔,管中窥豹不见全局,还一直呼喊着“真香”,对于网工来说沉溺于自己的一方小小天地不如跳出来看看外界有哪些新的技术和思想,莫听穿林打叶声,何妨吟啸且徐行

当前新的数据中心网络拓扑主要分为两类

1、以交换机为核心,网络连接和路由功能由交换机完成,各个设备厂商的“羹汤”全属于这个领域

2、以服务器为核心,主要互联和路由功能放在服务器上,交换机只提供简单纵横制交换功能

第一类方案中包含了能引发我回忆阴影的Fat-Tree,和VL2、Helios、c-Through、OSA等等,这些方案要么采用更多数量交换机,要么融合光交换机进行网络互联,对交换机软件和硬件要求比较高,第二类主要有DCell、Bcube、FiConn、CamCube、MDCube等等,主要推动者是微软,这类方案中服务器一版会通过多网卡接入网络,为了支持各种流量模型,会对服务器进行硬件和软件的升级。

除了这些网络拓扑的变化外,其实对数据中心网络传输协议TCP/IP、网络虚拟化、网络节能机制、DCI网络互联都有很多创新的技术和概念涌现出来。

FatTree  胖树,2008年由UCSD大学发表的论文,同时也是5年前工作中接触的第一种交换机为中心的网络拓扑,当时没有太理解,跟客户为这事掐的火星四溅,再来一次可能结论会有所改变,同时也是这篇论文引发了学术界对数据中心内部网络拓扑设计的广泛而深刻的讨论,他提出了一套组网设计原则来达成几个目的

1、全网采用低端商用交换机来组网、其实就是采用1U的接入交换机,取消框式设备

2、全网无阻塞

3、成本节省,纸面测算的话FatTree 可以降为常规模式组网成本的1/4或1/5

物理拓扑(按照4个pod设计)

FatTree 的设计原则如下

整个网络包含K个POD,每个POD有K/2个Edge和K/2个Agg 交换机,他们各有K的接口,Edge使用K/2个端口下联服务器,Agg适用K/2个端口上联CORE交换机

Edge使用K/2个端口连接服务器,每个服务器占用一个交换端口

CORE层由K/2*K/2共计KK/4个K个端口交换机组成,分为K/2组,每组由K/2ge,第一组K/2台CORE交换机连接各个POD中Agg交换层一号交换机,第二组K/2的CORE交换机连接各POD中Agg的二号交换机,依次类推

K个POD,每个POD有K/2个Edge交换机,每个Edge有K/2端口,服务器总数为K*K/2*K/2=KKK/4

K取值4的话,服务器总数为16台

常规K取值48的话,服务器为27648台

FatTree的路由设计更加有意思,论文中叫两阶段路由算法,首先要说明的是如果使用论文中的算法是需要对交换机硬软件进行修改的,这种两阶段路由算法和交换设备及服务器的IP地址强相关,首先就是IP地址的编制,这里依然按照K=4来设计,规则如下

1、POD中交换机IP为10.pod.switch.1,pod对应POD编号,switch为交换机所在POD编号(Edge从0开始由左至右到k/2-1,Agg从k/2至k-1)

2、CORE交换机IP为10.k.j.i ,k为POD数量,j为交换机在Core层所属组编号,i为交换机在该组中序号

3、服务器IP为10.pod.switch.ID,ID为服务器所在Edge交换机序号,交换机已经占用.1,所以从2开始由左至右到k/2+1

设计完成后交换机和服务器的IP地址会如下分配

对于Edge交换机(以10.2.0.1为例)第一阶段匹配10.2.0.2和10.2.0.3的32位地址,匹配则转发,没有匹配(既匹配0.0.0.0/0)则根据目的地址后8位,也就是ID号,选择对应到Agg的链路,如目标地址为x.x.x.2则选择到10.2.2.1的链路,目标地址为x.x.x.3则选择到10.2.3.1的链路

对于Agg交换机(以10.2.2.1为例)第一阶段匹配本POD中网段10.2.0.0/24和10.2.1.0/24,匹配成功直接转发对应Edge,没有匹配(既匹配0.0.0.0/0)则根据目的地址后8位,也就是ID号确定对应到Core的链路,如目标地址为x.x.x.2则选择到10.4.1.1的链路,目标地址为x.x.x.3则选择到10.4.1.2的链路

对于Core交换机,只有一个阶段匹配,只要根据可能的POD网段进行即可,这里是10.0.0.0/16~10.3.0.0/16对应0、1、2、3四个口进行转发

容错方面论文提到了BFD来防止链路和节点故障,同时还有流量分类和调度的策略,这里就不展开了,因为这种两阶段路由算法要对交换机硬件进行修改,适应对IP后8位ID进行匹配,现实中没有看到实际案例,但是我们可以设想一下这种简单的转发规则再加上固定端口的低端交换机,对于转发效率以及成本的压缩将是极为可观的。尤其这种IP地址规则的设计配合路由转发,思路简直清奇。但是仔细想想,这种按照特定规则的IP编制,把每个二层限制在同一个Edge交换机下,注定了虚拟机是没有办法跨Edge来迁移的,只从这点上来看注定它只能存在于论文之中,但是顺着这个思路开个脑洞,还有什么能够编制呢?就是MAC地址,如果再配上集中式控制那就更好了,于是就有了一种新的一种路由方式PortLand,后续我们单独说。

如此看来FatTree 是典型的Scale-out模式,但是由于一般交换机端口通常为48口,如果继续增加端口数量,会导致成本的非线性增加,底层Edge交换机故障时,难以保障服务质量,还有这种拓扑在大数据的maprece模型中无法支持one-to-all和all-to-all模式。

把脑洞开的稍微小一些,我们能否用通用商业交换机+通用路由来做出来一种FatTree变种拓扑,来达到成本节省的目的呢,答案一定是确切的,目前能看到阿里已经使用固定48口交换机搭建自己的变种FatTree拓扑了。

以交换机为中心的网络拓扑如VL2、Helios不再多说,目前看到最好的就是我们熟知的spine-leaf结构,它没有设计成1:1收敛比,而且如果使用super层的clos架构,也可以支撑几万台或者百万台的服务器规模,但是FaTtree依靠网络拓扑取消掉了框式核心交换机,在一定规模的数据中心对于压低成本是非常有效的

聊完交换机为核心的拓扑设计后,再来看看服务器为核心的拓扑,同样这些DCell、Bcube、FiConn、CamCube、MDCube等,不会全讲,会拿DCell来举例子,因为它也是2008年由微软亚洲研究院主导,几乎和FatTree同时提出,开创了一个全新的思路,随后的年份里直到今天一直有各种改进版本的拓扑出现

这种服务器为核心的拓扑,主导思想是在服务器上增加网卡,服务器上要有路由转发逻辑来中转流量数据包,并且采用递推方式进行组网。

DCell的基本单元是DCell0,DCell0中服务器互联由一台T个端口的mini交换机完成,跨DCell的流量要通过服务器网卡互联进行绕转。通过一定数量的Dcell0组成一个DCell1,按照一定约束条件进行递推,组成DCell2以及DCellk

上图例中是一个DCell1的拓扑,包含5个Dcell0,每台服务器2个端口,除连接自己区域的mini交换机外,另一个端口会依次连接其他DCell0中的服务器,来组成全互联的结构,最终有20台服务器组成DCell1,所有服务器按照(m,n)坐标进行唯一标识,m相同的时候直接通过moni交换机交互,当m不同时经由mini交换机中继到互联服务器,例子中红色线为4.0服务器访问1.3服务器的访问路径。

DCell组网规则及递归约束条件如下:

DCellk中包含DCellk-1的数量为GK

DCellk中包含服务器为Tk个,每台服务器k+1块网卡,则有

GK=Tk-1+1

TK=Gk-1 ✕ Tk-1

设DCell0中有4台服务器

DCell1 中有5个DCell0 (G1=5)

Tk1=20台服务器(T1=20)

DCell2 中有21个DCell1 (G2=21)

Tk2=420台服务器(T2=420)

DCell3 中有421个DCell2 (G3=421)

Tk3=176820台服务器(T3=176820)



Tk6=3260000台服务器

经过测算DCell3中每台服务器的网卡数量为4,就能组建出包含17万台服务器的数据中心,同样DCell的缺点和优点一样耀眼,这种递归后指数增长的网卡需求量,在每台服务器上可能并不多,但是全量计算的话就太过于惊人了,虽然对比FatTree又再一次降低交换机的采购成本,但是天量的网卡可以想象对于运维的压力,还有关键的问题时高层次DCell间通信占用低层次DCell网卡带宽必然导致低层次DCell经常拥塞。最后还有一个实施的问题,天量的不同位置网卡布线对于施工的准确度以及未知的长度都是一个巨大的挑战。

DCell提出后,随后针对网卡数量、带宽抢占等一系列问题演化出来一批新的网络拓扑,思路无外乎两个方向,一个是增加交换机数量减少单服务网卡数量,趋同于spine-leaf体系,但是它一直保持了服务器多网卡的思路。另一种是极端一些,干脆消灭所有交换机,但是固定单服务器网卡数量,按照矩阵形式组建纯服务器互联结构,感兴趣的同学可以继续探索。

数据中心的路由框架涵盖范围和领域非常多,很多论文都选择其中的一个点进行讨论,比如源地址路由、流量调度、收敛、组播等等,不计划每个展开,也没有太大意义。但是针对之前FatTree的两阶段路由有一个更新的路由框架设计PortLand,它解决了两段路由中虚拟机无法迁移的问题,它的关键技术有以下几点

1、对于FatTree这种高度规范化的拓扑,PortLand设计为采用层次化MAC编址来支持大二层,这种路由框架中,除了虚拟机/物理机实际的MAC外(AMAC),还都拥有一个PortLand规范的伪MAC(PMAC),网络中的转发机制和PMAC强相关,PMAC的编址规则为

pod.position.port.vmid

pod (2字节) 代表虚拟机/服务器所在POD号,position(1字节)虚拟机/服务器所在Edge交换机在POD中编号,port(1字节)虚拟机/服务器连接Edge交换机端口的本地编号,vmid(2字节)服务器在Edge下挂以太网交换机编号,如果只有一台物理机vmid只能为1

2、虚拟机/服务器的编址搞定后,Edge、Aggregate、Core的编址呢,于是PortLand设计了一套拓扑发现机制LDP(location discovery protocol),要求交换机在各个端口上发送LDP报文LDM(location

discovery message)识别自己所处位置,LDM消息包含switch_id(交换机自身mac,与PMAC无关)pod(交换机所属pod号)pos(交换机在pod中的编号)level(Edge为0、Agg为1、Core为2)dir(上联为1,下联为-1),最开始的时候Edge角色会发现连接服务器的端口是没有LDM的,它就知道自己是Edge,Agg和Core角色依次收到LDM后会计算并确定出自己的leve和dir等信息。

3、设计一个fabric manager的集中PortLand控制器,它负责回答Edge交换机pod号和ARP解析,当Edge交换机学习到一个AMAC时,会计算一个PMAC,并把IP/AMAC/PMAC对应关系发送给fabric manager,后续有虚拟机/服务器请求此IP的ARP时,会回复PMAC地址给它,并使用这个PMAC进行通信。

4、由于PMAC的编址和pod、pos、level等信息关联,而所有交换机在LDM的交互过程中知晓了全网的交换机pod、pos、level、dir等信息,当数据包在网络中传播的时候,途径交换机根据PMAC进行解析可得到pod、pos这些信息,根据这些信息即可进行数据包的转发,数据包到达Edge后,Edge交换机会把PMAC改写为AMAC,因为它是知道其对应关系的。当虚拟机迁移后,由fabric manager来进行AMAC和PMAC对应更新和通知Edge交换机即可,论文中依靠虚拟机的免费ARP来触发,这点在实际情况中执行的效率要打一个问号。

不可否认,PortLand的一些设计思路非常巧妙,这种MAC地址重写非常有特色。规则设计中把更多的含义赋给PMAC,并且通过LDP机制设计为全网根据PMAC即可进行转发,再加上集中的控制平面fabric manager,已经及其类似我们熟悉的SDN。但是它对于转发芯片的要求可以看出要求比较低,但是所有的转发规则会改变,这需要业内对于芯片和软件的全部修改,是否能够成功也看市场驱动力吧,毕竟市场不全是技术驱动的。

除了我们熟悉的拓扑和路由框架方面,数据中心还有很多比较有意思的趋势在发生,挑几个有意思的

目前数据中心都是以太网有线网络,大量的高突发和高负载各个路由设架构都会涉及,但是如果使用无线是不是也能解决呢,于是极高频技术在数据中心也有了一定的研究(这里特指60GHZ无线),其吞吐可达4Gbps,通过特殊物理环境、波束成形、有向天线等技术使60GHZ部署在数据中心中,目前研究法相集中在无线调度和覆盖中,技术方案为Flyways,它通过合理的机柜摆放及无线节点空间排布来形成有效的整体系统,使用定向天线和波束成形技术提高连接速率等等新的技术,甚至还有一些论文提出了全无线数据中心,这样对数据中心的建设费用降低是非常有助力的。

数据中心目前应用的还是TCP,而TCP在特定场景下一定会遇到性能急剧下降的TCP incast现象,TCP的拥塞避免和慢启动会造成当一条链路拥塞时其承载的多个TCP流可能会同时触发TCP慢启动,但随着所有的TCP流流量增加后又会迅速达到拥塞而再次触发,造成网络中有时间流量很大,有时间流量又很小。如何来解决

数据中心还有很多应用有典型的组通信模式,比如分布式存储、软件升级等等,这种情况下组播是不是可以应用进来,但是组播在数据中心会不会水土不服,如何解决

还有就是数据中心的多路径,可否从TCP层面进行解决,让一条TCP流负载在不同的链路上,而不是在设备上依靠哈希五元组来对每一条流进行特定链路分配

对于TCPincast,一般通过减少RTO值使之匹配RTT,用随机的超时时间来重启动TCP传输。还有一种时设计新的控制算法来避免,甚至有方案抛弃TCP使用UDP来进行数据传输。

对于组播,数据中心的组播主要有将应用映射为网络层组播和单播的MCMD和Bloom Filter这种解决组播可扩展性的方案

对于多路径,提出多径TCP(MPTCP),在源端将数据拆分成诺干部分,并在同一对源和目的之间建立多个TCP连接进行传输,MPTCP对比传统TCP区别主要有

1、MPTCP建立阶段,要求服务器端向客户端返回服务器所有的地址信息

2、不同自流的源/目的可以相同,也可以不同,各个子流维护各自的序列号和滑动窗口,多个子流到达目的后,由接收端进行组装

3、MPTCP采用AIMD机制维护拥塞窗口,但各个子流的拥塞窗口增加与所有子流拥塞窗口的总和相关

还有部分针对TCP的优化,如D3协议,D3是针对数据中心的实时应用,通过分析数据流的大小和完成时间来分配传输速率,并且在网络资源紧张的时候可以主动断开某些预计无法完成传输的数据流,从而保证更多的数据流能按时完成。

这的数据中心节能不会谈风火水电以及液冷等等技术,从网络拓扑的角度谈起,我们所有数据中心拓扑搭建的过程中,主要针对传统树形拓扑提出了很多“富连接”的拓扑,来保证峰值的时候网络流量的保持性,但是同时也带来了不在峰值条件下能耗的增加,同时我们也知道数据中心流量多数情况下远低于其峰值设计,学术界针对这块设计了不少有脑洞的技术,主要分为两类,一类时降低硬件设备能耗,第二类时设计新型路由机制来降低能耗。

硬件能耗的降低主要从设备休眠和速率调整两个方面来实现,其难点主要时定时机制及唤醒速度的问题,当遇到突发流量交换机能否快速唤醒,人们通过缓存和定时器组合的方式进行。

节能路由机制,也是一个非常有特点的技术,核心思想是通过合理的选择路由,只使用一部分网络设备来承载流量,没有承载流量的设备进行休眠或者关闭。Elastic Tree提出了一种全网范围的能耗优化机制,它通过不断的检测数据中心流量状况,在保障可用性的前提下实时调整链路和网络设备状态,Elastic Tree探讨了bin-packer的贪心算法、最优化算法和拓扑感知的启发算法来实现节能的效果。

通过以上可以看到数据中心发展非常多样化,驱动这些技术发展的根本性力量就是成本,人们希望用最低的成本达成最优的数据中心效能,同时内部拓扑方案的研究已经慢慢成熟,目前设备厂商的羹汤可以说就是市场化选择的产物,但是数据中心网络传输协议、虚拟化、节能机制、SDN、服务链等方向的研究方兴未艾,尤其是应用定制的传输协议、虚拟网络带宽保障机制等等,这些学术方面的研究并不仅仅是纸上谈兵,对于我知道的一些信息来说,国内的阿里在它的数据中心网络拓扑中早已经应用了FatTree的变种拓扑,思科也把数据中心内部TCP重传的技术应用在自己的芯片中,称其为CONGA。

坦白来说,网络从来都不是数据中心和云计算的核心,可能未来也不会是,计算资源的形态之争才是主战场,但是网络恰恰是数据中心的一个难点,传统厂商、学术界、大厂都集中在此领域展开竞争,创新也层出不穷,希望能拓展我们的技术视野,能对我们有一些启发,莫听穿林打叶声、何妨吟啸且徐行~

8、如何理解cisco企业架构

思科系统公司(Cisco Systems, Inc.),简称思科公司或思科,1984年12月正式成立,是互联网解决方案的领先提供者,其设备和软件产品主要用于连接计算机网络系统,总部位于美国加利福尼亚州圣何塞。1986年,Cisco第一台多协议路由器面市。1993年,思科建成了世界上第一个由1000台路由器连接的网络,由此进入了一个迅猛发展的时期。竞争方面,思科与华为一直是老对手。2012年10月,美国众议院认定华为和中兴危害其国家安全,而华为在其后的反驳中指出,华为、中兴被认定威胁美国国家安全,正是思科在背后推波助澜。正是思科在背后推波助澜。
概述
为保护、优化和发展业务,制定任何业务连续性计划时,都必须包含可靠的网络基础设施,以便满足各机构的数据保护需求,使应用能够快速恢复正常运作,并保证用户访问的连续性。思科系统®公司以可以扩展、自适应的企业数据中心架构为基础,为企业的数据中心经理提供业务连续性网络解决方案,除多种用户访问技术外,还能在多个数据中心和恢复站点之间提供经济有效的通信。
挑战
企业数据中心支持着对业务运作至关重要的很多应用,是各机构业务连续性战略的焦点。如果应用和数据不可用,或者用户无法访问,企业不但会损失收入,还会降低生产率。更糟糕的是,这种情况还会破坏客户和合作伙伴对企业的印象,或者受到法律诉讼。为实现保护、优化和发展业务的管理目标,很多IT机构都在重新思考自己的业务连续性计划。业务连续性是对风险和威胁、新法规以及数据中心内IT与业务资源的整合趋势高度敏感的企业最关注的问题。
目前,很多数据中心基础设施都是分立的,不但难以管理和维护,也难以适应新技术和应用。不仅如此,一旦发生中断或灾难,相互隔离的应用环境既难以实施一致、适当的保护,维护成本又非常高。
为建立能够支持业务永续性战略的网络时,数据中心和业务连续性经理面临很多问题:
磁带备份存在很多限制——作为传统的主流灾难恢复方式,磁带备份的速度慢,而且很难按时恢复关键应用和数据,因而难以满足恢复时间的要求。但是,它在保持完整性方面所起的作用仍然不容忽视。
费用高——尽管业务连续性技术的成本近年来一直在下降,但配备镜像软件、冗余设施和资源、电信服务和相应人力的成本仍然很高。因此,IT经理还需要利用一系列解决方案控制资本成本和运营成本,并保证企业能够实现业务连续性目标。
延迟长——由于零数据损失同步镜像要求在确认事务处理之前同时将数据写至本地和远程位置,因而影响了应用的性能。城域光网等传输技术可有效缩短延迟。一般情况下,由于光速的限制,对于多数实时事务处理应用,同步镜像站点之间的实际距离最长为200km。
网络设施成本高——虽然带宽成本持续下降,但大型数据中心镜像和复制需要极高的容量。如果采用传统的租用线路服务,这项费用将非常可观。
用户访问——业务连续性计划通常注重数据和应用可用性,但常常忽略了用户访问恢复数据和应用的需求。
业务连续性基本要素
业务影响评估表示了与应用停运、数据损失和用户访问中断相关的风险和潜在成本。尽管最理想的情况是能够最大程度地防止运行中断和数据损失,但实现这一目标要么成本太高,要么不切实际。事实上,很多应用允许一定程度的停运,只有一部分关键业务应用需要随时可用。风险评估利用两个业务连续性指标对应用进行评价:
恢复点目标(RPO)——确定机构愿意承受的数据损失风险,从零到几分钟或几小时;
恢复时间目标(RTO)——量化应用的最长不可用时间。
尽管RPO和RTO指标对数据和应用级评估十分有用,但思科系统公司又提出了直接适用于网络的第三个指标——恢复访问目标(RAO)。RAO确定了将用户恢复应用的时间,不论从哪个时间点开始恢复。如果没有RAO,实现应用RPO和RTO的实际价值就十分有限。例如,在正常运行期间,分支机构用户可能会通过企业内部网WAN访问位于主数据中心内的关键业务应用。如果应用发生故障,用户需要利用回退方法,例如通过互联网服务供应商(ISP)网络快速构建站点到站点虚拟专用网(VPN)连接,与支持恢复应用的备用数据中心建立连接。
各机构必须考虑所有备用数据中心或备用站点的远近。因为只有备用数据中心或备用站点设立得足够远,才能减小断电、火山爆发、飓风或地震等灾难的影响。
图1 业务连续性解决方案示意图
利用RPO、RTO和RAO指标以及距离要求,业务连续性经理可以为每个应用配备一个与其业务角色相对应的技术解决方案(图1)。这些解决方案可能包含下面介绍的一个或多个选项:
高可用性存储网络——存储局域网(SAN)或网络连接存储(NAS)解决方案能够应对本地服务器故障,因为它能够提供对备用或集群服务器系统的访问,以保证连续运作。共享存储环境可以利用高级存储系统,保证磁盘故障不会影响应用的正常运行。
集中备份——定期备份是多数商业应用的标准操作规程的一部分。作为最便宜的解决方案,集中磁带备份需要的恢复时间最长,但它十分适合用于防止数据受损。目前,由于磁盘存储介质的成本已越来越接近于磁带存储,因此,基于磁盘的“近线”备份系统越来越受到企业的欢迎,因为它的备份时间和恢复时间都很短。
远程异步复制——将数据变化复制到另一位置的远程系统。根据数据的重要性,数据变化可以在每天规定的时间执行定时复制,也可以利用存储系统、NAS设备、主机系统或嵌入在网络中的高级软件在变化发生时执行异步复制。这些解决方案的异步特性具有很强的优势。由于距离不会影响性能,因而不存在延迟限制。数据复制的恢复时间比磁带备份短,但异步特性不能保证恢复所有数据。
同步磁盘复制和镜像——对于既要求以最快的速度恢复,又不允许数据损失的应用,可以利用存储系统、主机上或集中在存储网络中的高级软件实施同步磁盘复制和镜像解决方案。等到所有磁盘写操作都通过高性能网络同步复制到远程站点之后,事务处理才算完成,从而消除了任何事务处理损失。对这种方法的限制是延迟量,它限制了站点之间的实际距离。对于写操作密集型应用和联机事务处理应用,例如企业资源规划和客户关系管理,这一点尤为重要。
数据中心镜像——为实现最高级连续性,越来越多的企业建立了两个主数据中心,并在两个站点之间构建了扩展服务器集群。某些企业平常只使用一个主数据中心,另一个数据中心只在发生故障或灾难时使用。但事实上,两个数据中心可以同时作为“热”数据中心或当前活动数据中心,即将一个数据中心的所有事务处理同步镜像到另一个数据中心。这种解决方案共包含两种操作模式。在第一种操作模式中,两个数据中心共同承担应用的事务处理负载,完全同步,利用全局负载均衡将用户流量分布至两个站点。镜像数据中心和主数据中心能够保证,任何一个数据中心的故障恢复都对用户透明。另外,这种模式还能更好地利用昂贵投资,提高投资回报率。在第二种模式中,每个数据中心将作为部分应用的主数据中心,同时对另一数据中心的应用提供镜像。如果某个数据中心发生故障,另一个数据中心将接管其全部应用。无论采用哪种模式,数据中心镜像都能提供最高级业务连续性。
连续用户访问和连接——业务连续性必须包含RAO战略,以便在情况发生变化时保持用户与应用的正常连接。根据灾难的严重程度,有的访问方法对用户透明,有的则需要人工重配置。对用户透明的技术包括镜像数据中心之间的全局负载均衡,遇到故障链路时自动转换路径,以及自动恢复到备用组件或设备等。需要重配置的技术包含用户连接修改。例如,如果LAN因公司大楼火灾而遭到破坏,用户可以利用VPN连接进行远程通信和访问应用。
思科企业数据中心架构
思科®企业数据中心架构是一种和谐的网络架构,不但能满足数据中心对融合、业务连续性和安全性的当前要求,还能满足数据中心对刀片服务器、虚拟化、Web服务和GRID等服务导向技术和应用计算技术的未来需求。通过这种架构,数据中心网络领域的全球领先厂商思科系统公司能够为IT和网络经理提供适当的基础设施,实现完整、广泛的业务连续性战略。思科企业数据中心以智能网络为基础,不但能帮助企业消除当前面临的应用中断风险,还能帮助企业制定相应的计划,为分散在各地的数据中心实现更先进的业务连续性功能。思科能够帮助IT经理采用这种架构,利用经过测试和验证的架构、切实可行的设计最佳实践,以及既通用又考虑到每个合作伙伴的特点的配置模板,降低风险,缩短备份和恢复时间,并降低投资要求。利用其灵活性,企业能够部署既有助于实现企业目标,又有助于有效实施新服务和应用的计算、存储和软件技术。实施这种自适应数据中心网络架构之后,IT机构能够更好地实现保护、优化和发展业务的企业目标。它不但能保护关键应用和保密数据,还能提高数据中心的运作效率,快速建立安全的新应用环境,有效支持新的业务流程。利用高度灵活、有效的自适应数据中心网络,企业可以缓解竞争压力,扩大市场规模,并加快新服务上市过程,因而能够重新协调各种资源,促进企业发展。
思科企业数据中心架构包含三个层次(图2):
基本基础设施包括智能IP网络基础设施、智能存储网络和数据中心互联;
网络系统智能包括安全性、供应优化、可管理性和可用性;
嵌入式应用和存储服务包括存储虚拟化、数据复制和分布以及高级应用服务。
图2 业务连续性网络:企业数据中心架构的组成
思科业务连续性网络解决方案
业务连续性网络是任何业务连续性战略的关键基础。它不但能提供应用与存储/备份源之间的连接、主数据中心与备用数据中心之间的连接,还能在故障发生之前、之中和之后优化用户对应用的访问。思科能够提供最先进、最全面的业务连续性网络解决方案套件,并能够与业界领先合作伙伴开发的业务连续性技术相集成。
思科为企业提供的灵活的大容量网络解决方案能够支持从备份到数据中心镜像的全套业务连续性IT解决方案。思科业务连续性网络解决方案具有以下特性:
永续性极高的数据中心IP网络;
可以扩展的智能存储网络;
大容量、低延迟的SAN扩展和数据中心互联;
永续、灵活的用户访问。
下面,我们将详细介绍这些特性。
思科业务连续性网络的优点
这些解决方案具有以下优点:
灵活性——最丰富的业务连续性网络解决方案,能够满足各种企业应用对RTO和RPO的不同要求;
网络可用性——采用了切实可行的设计,实施了分层硬件和链路冗余性,具有较高的软件永续性;
能够与领先存储和系统厂商的产品互操作——风险低,集成和部署的速度快、成本低;
总拥有成本低——使企业能够将业务连续性通信集成到一个能够可靠支持多种应用的灵活网络基础设施中,以降低电信成本;
采用了业界领先的技术——包括存储网络内的高级数据复制智能和多协议支持,以及光网内的高密度流量和协议灵活性。
永续性极高的数据中心IP网络基础设施
为保证对应用和服务器的连续访问,以及数据中心内服务器之间的互联,必须设计和部署数据中心IP网络基础设施。网络可用性取决于设计的多个方面:交换机和路由器内的冗余模块化组件,交换机、路由器和服务器之间的冗余链路,以及用于快速、透明地切换到备用组件、设备和链路的高可用性智能。恢复还应该能够提供高层服务,例如服务器和应用的负载均衡和安全性。数据中心员工应遵循运作最佳实践、工具和支持,以便快速响应技术问题,防止人为故障。
便于扩展的强大存储网络
存储网络是业务连续性战略的关键组件。它能够将存储与服务器分开,创建可由多台服务器访问的存储“池”,从而改善数据可用性。这种方法的永续性高于直接连接存储,因为即使服务器发生故障,数据仍然可用。
存储网络有助于提高应用和数据可用性,因为它能够实现业务连续性解决方案的标准化和集中管理,例如磁带备份、数据复制和多个系统之间的数据镜像。利用存储网络,能够通过光纤通道或互联网小型计算机系统接口(iSCSI)协议实现磁带备份服务的整合。与传统的SCSI备份解决方案相比,它能够缩短备份和恢复时间,因为备份发生在与主数据中心LAN分开的网络上。思科采用了称为虚拟存储局域网(VSAN)的独特存储技术,这种技术能够将相互分离的存储“孤岛”集成为可以扩展、可以集中管理的统一物理网络,而且不会影响逻辑独立SAN的可用性或安全性。例如,VSAN可以为磁带备份建立一个逻辑上独立的网络。磁带备份的专用带宽不会影响使用SAN的其它时间关键型应用的性能或可用性(图3)。思科存储网络解决方案的其它优点还包括,它能够将高级存储智能集成到网段中。这种智能包括思科合作伙伴提供的虚拟化和数据复制软件。利用这种智能,存储管理员能够集中控制存储的增加,实现一致、透明的数据复制和镜像。
图3 多层智能存储网络
思科提供以Cisco MDS 9000系列多层交换机为基础,提供这种强大的智能化存储网络基础设施。
高容量、低延迟的数据中心互联
目前,很多机构都将多种应用、服务器和存储集成到少数设施上,因此,保证这些整合数据中心不会成为单故障点已成为当务之急。根据预定风险,备用数据中心可以位于另一个办公区、另一个城市、另一个国家或者地球的任何一个地方。为支持企业选定的业务连续性解决方案,企业需要制定相应的互联战略,通用的部署方案有两种:办公区/城域数据中心互联和远程长途连接(图4)。
图4 数据复制和SAN扩展方式
办公区/城域数据中心互联
在同一办公区或城市范围内部署备用数据中心的方案最多。由于距离短,因而能够最大程度地缩短网络延迟,并支持任何业务连续性解决方案,包括同步磁盘和数据中心镜像。很多高容量技术,包括密集波分多路复用(DWDM)、SONET、SDH和千兆/万兆城域以太网都具有很高的灵活性,能够实现成本、管理和技术目标之间的均衡。不仅如此,企业还可以建立自己的城域光网,从电信运营商那里租用容量,或者采用托管式服务。
DWDM——作为第一层技术,DWDM能够经济有效地增加光纤的可用带宽。它能够支持任何存储协议,包括IBM光纤连接、企业系统连接(ESCON)、IBM Sysplex和耦合链路、光纤通道以及iSCSI。DWDM支持所有主LAN协议,支持数据、语音和视频传输。思科能够为城域DWDM系统提供超高网络容量(32通道,总吞吐量高达320Gbps)、高密度服务汇聚、通过灵活的收发方式在多种客户机接口实现的服务透明性、综合服务保护方式以及需要的放大功能。
SONET/SDH——SONET和SDH是大家熟知并已广为部署的技术,能够同时通过电子接口和光接口传输数据和时分多路复用(TDM)流量。最近的增强使以太网和DWDM技术能够与SONET/SDH集成在一起,从而充分展示了它能够满足不断变化的网络要求的灵活性。SONET/SDH可以用于多项服务,例如SAN扩展。思科是下一代SONET/SDH解决方案的行业领先厂商,能够在一个平台——目前可通过SONET/SDH同时支持光纤通道和ESCON的Cisco ONS 15454——上提供多种服务、带宽和接口。
城域以太网——作为城域网络(MAN)环境中提供千兆和万兆以太网的行业领先的解决方案厂商,思科能够将通过以太网MAN将基于IP和以太网的业务连续性解决方案连接在一起,实现平滑的高容量传输,因而能够为企业提供易操作性和管理性。由于思科支持IP光纤通道(FCIP)等标准协议,因而可实施经济有效的业务连续性部署(图5)。
图5 选择适当的城域以太网技术
远程连接
为了将超过城域距离(大于200km)的数据中心互联在一起,思科提供多种传输方式。由于多数应用会因长途传输而产生过量延迟,思科并不建议企业为距离超过200km的多数应用采用同步镜像解决方案,而是建议企业采用异步复制技术。业务连续性应用的最佳服务选择是SONET/SDH和IP。Cisco ONS 15454多服务供应平台通过SONET/SDH传输复制流量,并可选用多种协议,包括FCIP、IP和光纤通道。IP WAN服务可以利用IPSec和/或多协议标签交换(MPLS)技术通过安全VPN服务传输FCIP和IP复制流量。
思科利用智能网络解决方案实现远程异步复制,以便提供协议转换、高可用性、服务质量和安全性,使企业能够可靠、经济、有效地部署远程业务连续性解决方案。
永续、灵活的用户访问
具有永续性的数据中心网络,网络间的高容量、低延迟互联,以及强大的存储网络是业务连续性网络解决方案的三大部分。第四部分也非常重要,其目的是利用具有永续性的灵活技术保证用户对应用的访问,以实现RAO目标。创建能够满足RAO要求的网络基础设施时,网络经理应当制定关于本地和远程员工、应用和通信的意外计划和后勤计划。这些计划应解决以下问题:
用户或远程站点是否需要访问数据中心应用和通信服务?
用户是否能以适当的方式及时重新建立与备用站点的连接?
如果主访问方法失败,将采用哪种回退访问方法?这些方法能否实现RAO目标?
网络是否能在发生网络故障时自动重新路由?
远程位置是否需要多条不同ISP提供的链路与数据中心/备用数据中心相连?
如果主工作园区不可用,用户是否需要特定的接入功能,例如从旅馆或家里接入?
这些问题可以用两种方式解决:透明重定向和人工重连接。
透明重定向——这种技术对用户不可见,它采用了负载均衡、服务器和“路径状态敏感”路由、互联网多路传输和高级路由技术。负载均衡可以在数据中心内部或之间执行。智能站点选择能够发现用户的物理位置,并将用户信息发送至距离最近或响应能力最高的数据中心。这种技术能够检测到某地点是否联网,并确定路径和服务器的“状况”。如果检测到问题,负载均衡技术通常会在用户不知情的情况下把连接流量转移至另一个数据中心。
人工重连接——当主地点出现网络故障或者应用不可用时,需要用户建立与应用的新连接。思科是访问联网的行业领先厂商,能够为企业提供多种解决方案。对于人工重连接,思科在其路由器、交换机、防火墙和VPN集中器中提供可以扩展的灵活VPN终端选项。Cisco IOS® 软件采用了强有力的故障切换和重路由技术,不但能从任何网络故障快速恢复,而且通常对用户透明。为满足快速创建移动办公室的需要,思科以IEEE 802.11标准为基础开发了安全无线网络解决方案(图6)。
图6 使用户能够对应用和数据执行连续、均衡的访问
迁移到思科业务连续性网络
思科建议,企业应按照以下步骤开发并实施相应的业务连续性网络解决方案:
对所有企业应用执行业务影响评估,评价应用中断的风险和成本;
与业务、IT和网络决策者一起制定业务连续性计划,满足应用影响评估要求;
与思科及其合作伙伴一起部署相应的业务连续性解决方案;
持续修改和测试计划和解决方案,满足不断变化的需求。
利用思科提供的指导,企业可以将业务连续性网络部署为企业数据中心网络架构的主要组件之一。客户可以提供高级服务,以便设计和审核相应的数据中心基础设施和业务连续性解决方案,从而保持连续正常运行。
业务连续性合作伙伴关系
思科智能网络和存储技术为业务连续性产品奠定了基础,能够帮助数据中心厂商出现故障时的业务永续性。思科能够以多种方式与业界领先厂商合作,以便实现数据中心和业务连续解决方案的集成式顺利供应,使企业不但能满足当前要求,还能在发展和变化之后不断调整。这些合作伙伴关系为数据中心经理提供了设计、部署和维护灵活数据中心,有效实现其企业目标所需的各种资源。
思科:业务连续性网络领域的领先厂商
业务连续性是开展业务的关键。目前,很多企业都在进行数据中心资源的整合,并追求效率的提高,因此,必须将业务连续性战略融入到IT的各个层次,而且应该从支持所有数据中心通信的基础网络开始。此网络不但能保证对关键业务应用的持续访问,还能通过复制和镜像保证应用和数据的适当恢复。无论发生任何故障和灾难,思科为数据中心经理提供的有效的设计、模板、最佳实践和网络解决方案都能帮助数据中心保持业务的正常运行。
以上内容来源互联网,希望对大家有所帮助

9、数据泛滥,边缘数据中心很有效

不断增长的数据

随着云计算、数字媒体、5G的迅猛发展和物联网的广泛应用,组织需要随时随地满足即时处理数据的需求。物联网连接的人员、设备、传感器的数量预计将超过万亿。物联网设备涵盖了消费类电器、智能工业机器,甚至自动驾驶 汽车 ,正以前所未有的数据量和速度迅速淹没现有的互联网基础设施。根据调查机构Gartner公司的研究,数据爆炸将对网络和IT基础设施提出巨大的需求,成为新架构范例的主要驱动力,而这种新架构范例通常被称为边缘计算。它将把数据生产和计算的处理从大型数据中心转移到边缘。

人们对数据的需求不断增长,对即时数据的需求正促成一场技术革命。这一切正改变着计算世界——与技术的交互方式,计算行业的基础设施,满足数据存储和处理的速度等等,因为数据需求正以指数级的速度不断增加。数据的这种转移和由此产生的流量对数据中心行业产生了巨大的影响。延迟和性能成为组织衡量数据中心的共同标准。而边缘成为服务和消费之间的最低延迟点。这意味着组织的内容尽可能贴近人们的眼球,云计算 游戏 平台尽可能靠近 游戏 玩家,组织应用程序和工作负载尽可能靠近用户,物联网数据聚合点尽可能靠近传感器。而以更快速度到达边缘的服务提供商将提供差异化的用户体验,从接近用户上获得性能的实质性好处,也获得更接近客户的附加效率和经济效益。

为了保持竞争力,全球数据中心供应商必须履行对数字化转型的承诺,包括云存储和处理来自物联网设备的大量数据。根据希捷公司委托进行的DataAge 2025调查研究,2018年影响数据中心空间的趋势说明,边缘计算通过部署指导方向、结构的网络解决方案来改变对数据中心距离的需求,同时满足设施的不同需求,以优化和管理基础设施和数据中心运营的功能。

边缘计算和支持SDN的数据中心只是说明数据与保护和实现通信的数据中心之间相互依赖的一些趋势。对于内容永不满足的需求和持续的信息收集,以及对该信息的处理也推动了对新型互联网的需求,其中包括更分散的网络架构。优化数据中心和网络基础设施会影响数据创建和使用的数量、速度和首选位置。数据需求的增长已经表明需要强大的互联网基础设施和即时可访问的数据中心,从核心到边缘和微边缘,支持、存储和互连几乎每个设备的数据。

迁移到边缘数据中心的数据

许多为人力资源、客户管理和业务流程模块提供基于云计算的业务应用程序的全球性公司已进入边缘数据中心市场,以优化终端用户的体验。在业务中,许多场景需要立即访问从资产管理、流程优化和预测分析到超链接世界中供应链管理实时需求的数据。

因此,行业专家认识到边缘计算是一种可以补充和取代传统云计算的新型计算架构,并大量增加更多的边缘数据中心。边缘计算背后的基本思想是将计算和存储资源分布到数百万甚至数十亿个不同位置的设备中,以提供满足日益增长的数字应用和服务需求所必需的分布式支持。边缘计算解决方案旨在通过园区网络、蜂窝网络、数据中心网络或云计算的分散式扩展为数据中心和云计算服务提供补充。

通过边缘计算增强数据中心的能力

根据调研机构IDC公司的数据,用户对数据的需求将在2019年继续上升,而随着 科技 的进步、行业的兴衰、数据的流动,计算服务的结构也将发生变化。推动数据消费需求的是边缘计算。定义分布式边缘计算的移动可以简化为几个战略优势:速度、容量、效率、成本和响应能力。

根据Gartner公司的另一份报告,到2022年,它所需的边缘计算和分布式架构将成为所有数字业务的必要解决方案。40%的大型企业将边缘计算原则上纳入2021年的规划项目,与2017年的不到1%相比显著上升。边缘计算可以支持商业生态系统,该生态系统在快速数据和实时整体管理方面蓬勃发展。

面临边缘计算的中断

从基于云计算的中央计算网络转向更加分散的边缘计算模型的影响是深远的,特别是相对于部署在边缘的各种设备的需求。正如从大型机到基于个人电脑的客户端-服务器架构的转变对技术行业产生的巨大影响一样,从基于云计算的模型向物联网驱动的边缘计算环境过渡将产生巨大影响,并要求企业适应快速变革的速度。

边缘计算对端点设备(诸如网关和边缘服务器等一系列新的中间设备)将提出更多要求,这些设备将支持完整的边缘计算环境。这些设备需要相当大的内置计算和存储能力来处理应用程序和工作负载。边缘计算将继续把工作负载传递给云计算,但长期目标是在多个不同边缘元素之间分配工作负载。

在一个颠覆和不断改进的技术行业中,数据中心不断响应变革和创新。其颠覆性趋势正在提高生产力、灵活性、价值和数据中心能力。这些趋势带来了令人兴奋的潜力,现在是考虑边缘计算和数据中心如何影响组织运营的时候了。

征稿啦

IDC圈 公众号秉持着「与千万人共成长」理念,如果你有优质的文章:或是行业热点事件、技术趋势的真知灼见,或是深度的应用实践,欢迎投稿!

投稿邮箱 | [email protected]

10、什么是数据中心?数据中心系统有哪几部分组成?

IDC(Internet Data Center) - Internet数据中心,它是传统的数据中心与Internet的结合,它除了具有传统的数据中心所具有的特点外,如数据集中、主机运行可靠等,还应具有访问方式的变化、要做到7x24服务、反应速度快等。IDC是一个提供资源外包服务的基地,它应具有非常好的机房环境、安全保证、网络带宽、主机的数量和主机的性能、大的存储数据空间、软件环境以及优秀的服务性能。
IDC作为提供资源外包服务的基地,它可以为企业和各类网站提供专业化的服务器托管、空间租用、网络批发带宽甚至ASP、EC等业务。简单地理解,IDC是对入驻(Hosting)企业、商户或网站服务器群托管的场所;是各种模式电子商务赖以安全运作的基础设施,也是支持企业及其商业联盟(其分销商、供应商、客户等)实施价值链管理的平台。形象地说,IDC是个高品质机房,在其建设方面,对各个方面都有很高的要求
网络建设
IDC主要是靠其有一个高性能的网络为其客户提供服务,这个高性能的网络包括其- AN、WAN和与Internet接入等方面要求。
IDC的网络建设主要有: - IDC的- AN的建设,包括其- AN的基础结构,- AN的层次,- AN的性能。 - IDC的WAN的建设,即IDC的各分支机构之间相互连接的广域网的建设等。 - IDC的用户接入系统建设,即如何保证IDC的用户以安全、可靠的方式把数据传到IDC的数据中心,或对存放在IDC的用户自己的设备进行维护,这需要IDC为用户提供相应的接入方式,如拨号接入、专线接入及VPN等。 - IDC与Internet互联的建设。
- IDC的网络管理建设,由于IDC的网络结构相当庞大而且复杂,要保证其网络不间断对外服务,而且高性能,必须有一高性能的网络管理系统。
机房场地建设
机房场地的建设是IDC前期建设投入最大的部分。由于IDC的用户可能把其重要的数据和应用都存放在IDC的机房中,所以对IDC机房场地环境的要求是非常高的。IDC的机房场地建设主要在如下几个方面: - 机房装修:机房装修主要考虑吊顶、隔断墙、门窗、墙壁和活动地板等。- 供电系统:供电系统是IDC的场地建设重点之一,由于IDC的大量设备需要极大的电力功率,所以供电系统的可靠性建设、扩展性是极其重要的。供电系统建设主要有:供电功率、UPS建设(n+1)、配电柜、电线、插座、照明系统、接地系统、防雷和自发电系统等。- 空调系统:机房的温度、通风方式和机房空气环境等。- 安全系统:门禁系统、消防系统和监控系统。- 布线系统:机房应有完整的综合布线系统,布线系统包括数据布线、语音布线、终端布线。- 通信系统:包括数据线带宽、语音线路数目等。