當前位置:首頁 » 觀全球化 » 數據中心網路架構與全球化服務
擴展閱讀
國際貿易專業男女比例 2020-08-26 05:18:03
寧波外貿網站製作 2020-09-01 16:26:57
德驛全球購 2020-08-26 04:14:27

數據中心網路架構與全球化服務

發布時間: 2023-02-21 14:20:17

1、數據中心網路,什麼是數據中心網路

數據中心網路(Data Center Network)是應用於數據中心內的網路,因為數據中心內的流量呈現出典型的交換數據集中、東西流量增多等特徵,對數據中心網路提出了進一步的要求:大規模、高擴展性、高健壯性、低配置開銷、伺服器間的高帶寬、高效的網路協議、靈活的拓撲和鏈路容量控制、綠色節能、服務間的流量隔離和低成本等。在這樣的背景下,傳統的三層架構受到挑戰,網路扁平化、網路虛擬化以及可以編程和定義的網路成為數據中心網路架構的新趨勢。維基百科給出的定義是「數據中心是一整套復雜的設施。它不僅僅包括計算機系統和其它與之配套的設備(例如通信和存儲系統),還包含冗餘的數據通信連接、環境控制設備、監控設備以及各種安全裝置」。谷歌在其發布的《The Datacenter as a Computer》一書中,將數據中心解釋為「多功能的建築物,能容納多個伺服器 以及通信設備。這些設備被放置在一起是因為它們具有相同的對環境的要求以及物理安全上的需求,並且這樣放置便於維護」,而「並不僅僅是一些伺服器的集合」 。採用internet接入時,只需要一台能上網的PC加數據中心軟體即可。文中路由器指的是一般公司上網時是通過路由器上網的,此時須在路由器上做一些設置。也可直接把寬頻接入線接至PC中來實現。不需要ISP開通服務。但在根據獲取的外網IP地址及方式選擇採用合適的動態域名軟體。

2、雲計算數據中心光互連網路架構

數據中心是雲計算的核心支持平台,雲計算的發展對數據中心網路架構提出了嚴峻的挑戰,傳統電互連網路架構難以在帶寬、設備開銷、能耗、管理復雜度等方面同時滿足雲應用的要求,因此以低能耗、低開銷、高帶寬為特點的光互連網路架構出現並受到研究人員的廣泛關注。

通過廣泛的接入模式、共享的資源架構、按需的服務部署及靈活的容量擴展,雲計算在近年來獲得了廣泛的部署和應用。數據中心是雲計算的核心支撐平台,隨著雲應用的廣泛部署,數據中心的通信模式和業務需求出現了根本性變化,這些變化具體包括:

(1)數據中心的網路規模和負載出現了指數級增長;

(2)主要的流量模式由傳統「南北向流量」轉變為「東西向 流 量」;

(3)更 多 時 延 敏 感 和 數 據 密集型業務在數據中心內運行;

(4)一些虛擬化技術,如虛擬機實時遷移,需要網路提供更好的支持,這些變化對數據中心網路架構提出了更高的要求,傳統數據中心網路在對分帶寬、傳輸時延、網路可擴展性、容錯性、資源利用率等方面均無法滿足雲業務的需求。對此,研究人員提出了新的電互連網路架構, 如Fat Tree、VL2、DCell、BCube、CamCube和Snowflake等。盡管上述架構能夠有效滿足新的雲業務要求並改善數據中心的網路性能,但這些網路架構同時也帶來了拓撲結構復雜、線纜開銷過大、設備數量過多、網路能耗難以優化等問題。究其根本原因在於,隨著網路容量的指數級增長,基於COME的電子元件幾乎達到了其帶寬的上限,因此,光互連技術得到研究人員的極大關注。與電互連技術相比,光互連技術能夠更好地滿足雲計算數據中心對能耗和帶寬的需求,尤其隨著綠色計算、GreenCloud等概念的提出,數據中心光互連技術成為網路節能的重要方式。

近年來,結合雲計算數據中心的流量模式和新型光交換器件,研究人員提出了多種新的光互連網路架構,實驗和模擬表明,這些架構在吞吐、時延、靈活性、能耗等方面優於傳統的電互連網路架構,但相對於電互連網路,工業

界和學術領域對於數據中心光互連網路的研究尚處於起步階段,其中很多技術挑戰尚未得到很好的解決,隨著雲計算的發展,服務、計算、存儲、網路將進一步融合為一個整體方案,相對於發展迅速的計算技術和存儲技術,網路技術的革新相對緩慢。因此,深入研究數據中心網路,尤其是具有革新性的光互連網路,對於未來網路技術和雲計算技術的創新發展都具有重要的意義。

3、idc數據中心是什麼

互聯網數據中心(Internet Data Center,簡稱IDC)是指一種擁有完善的設備(包括高速互聯網接入帶寬、高性能區域網絡、安全可靠的機房環境等)、專業化的管理、完善的應用服務平台。

在這個平台基礎上,IDC服務商為客戶提供互聯網基礎平台服務(伺服器託管、虛擬主機、郵件緩存、虛擬郵件等)以及各種增值服務(場地的租用服務、域名系統服務、負載均衡系統、資料庫系統、數據備份服務等)。

互聯網數據中心的基本架構:

1、互聯網接入層:負責與CMNET的互聯,保證IDC內部網路高速訪問互聯網,並負責匯聚網路內的匯聚層交換機,對IDC內網和外網的路由信息進行轉換和維護IDC網路架構。

2、匯聚層:向下負責匯聚多個業務區的業務接入層交換機,向上與核心路由器進行互聯。部分安全設備部署在該層用以對內部網路進行安全防範。大客戶或重點業務可直接接入匯聚層交換機。

4、數據中心是什麼?其系統結構和工作原理是怎樣的呢?

數據中心是企業的業務系統與數據資源進行集中、集成、共享、分析的場地、工具、流程等的有機組合。從應用層面看,包括業務系統、基於數據倉庫的分析系統;從數據層面看,包括操作型數據和分析型數據以及數據與數據的集成/整合流程;從基礎設施層面看,包括伺服器、網路、存儲和整體IT運行維護服務。數據中心的建設目標是:1、全面建成公司總部和網省公司兩級數據中心,逐步實現數據及業務系統的集中;2、建立企業數據倉庫,提供豐富的數據分析展現功能;3、實現數據的唯一性與共享性;4、建立統一的安全體系,保證數據及業務系統的訪問安全;5、結合數據中心建設,完善數據交換體系,實現兩級數據中心間的級聯;6、實現網路、硬體、存儲設備、數據、業務系統和管理流程、IT采購流程、數據交換流程的統一集中;7、統一的信息管理模式及統一的技術架構,能夠迅速地實施部署各種IT系統,提升管理能力。數據中心採用總部和網省兩級進行部署,兩級數據中心通過數據交換平台進行數據的級聯。數據中心邏輯架構包含:應用架構、數據架構、執行架構、基礎架構(物理架構)、安全架構、運維架構。應用架構:應用架構是指數據中心所支撐的所有應用系統部署和它們之間的關系。數據架構:數據架構是指每個應用系統模塊的數據構成、相互關系和存儲方式,還包括數據標准和數據的管控手段等。執行架構:執行架構是指數據倉庫在運行時態的關鍵功能及服務流程,主要包括ETL(數據的獲取與整合)架構和數據訪問架構。基礎架構(物理架構):為上層的應用系統提供硬體支撐的平台(主要包括伺服器、網路、存儲等硬體設施)。安全架構:安全架構覆蓋數據中心各個部分,包括運維、應用、數據、基礎設施等。它是指提供系統軟硬體方面整體安全性的所有服務和技術工具的總和。運維架構:運維架構面向企業的信息系統管理人員,為整個信息系統搭建一個統一的管理平台,並提供相關的管理維護工具,如系統管理平台、數據備份工具和相關的管理流程。數據的獲取與整合也叫ETL(Extract,Transact,Load),是在確定好數據集市模型並對數據源進行分析後,按照分析結果,從應用系統中抽取出與主題相關的原始業務數據,按照數據中心各存儲部件的要求,進行數據交換和裝載。數據的獲取與整合主要分為數據抽取、數據轉換、數據裝載三個步驟。ETL的好壞,直接影響到數據集市中的數據質量。數據倉庫區是專門針對企業數據整合和數據歷史存儲需求而組織的集中化、一體化的數據存儲區域。數據倉庫由覆蓋多個主題域的企業信息組成,這些信息主要是低級別、細粒度數據,同時可以根據數據分析需求建立一定粒度的匯總數據。它們按照一定頻率定期更新,主要用於為數據集市提供整合後的、高質量的數據。數據倉庫側重於數據的存儲和整合。數據集市是一組特定的、針對某個主題域、部門或用戶分類的數據集合。這些數據需要針對用戶的快速訪問和數據輸出進行優化,優化的方式可以通過對數據結構進行匯總和索引實現。藉助數據集市可以保障數據倉庫的高可用性、可擴展性和高性能

5、給你10個路由器或交換機,你如何配置?(第1篇)

前幾周有人問我,如果有一個環境中給你10多個交換機和路由器,應該如何配置。這是一個很好的問題,關鍵不在埠安全、Port Channel、STP、和路由的配置,而是在於針對終端應用服務特點選擇相應適合的網路架構。

近十年來,雖然雲服務的擴展性需求促進了相關解決方案快速發展,然而數據中心常見的網路拓撲仍然可以歸納為兩種:傳統的三層網路架構,和Leaf-Spine二層網路架構。

傳統的三層網路架構由三層交換機組成:即訪問層,聚合層(有時稱為分發層)和核心層。伺服器連接到其中一個邊緣層訪問交換機(常稱Top of Rack Switch,或 TOR Switch),聚合層交換機則將多個接入層交換機互連在一起,所有聚合層交換機通過核心層交換機相互連接。核心層交換機還負責將數據中心連接到Internet。傳統的數據中心過去採用的就是這種三層架構。

下圖是我參與優化設計的有數萬台伺服器的傳統數據中心網路架構示意圖。

在這個拓撲中,除了經典的三層(分發路由器,網路分區匯聚路由器,伺服器接入交換機)外,核心層還包括了: WAN核心骨幹路由器,WAN發路由器,WAN優化加速器,LAN核心路由器,外部Choke路由器,Internet邊界路由器,Transit,防火牆,用於聯接數據包分析器的Network TAP。網路負載均衡器放在了聚合層。另外還有一個專用的OOB接入層,用於設備維護管理。

三層架構雖然容易部署、易於診斷,但是其已無法滿足日益增長的雲計算需求。三層架構面臨的主要問題包括:低可擴展性、低容錯性、內部伺服器之間橫截面帶寬低、較高層超額使用(Oversubscription)、高層次的拓撲中使用的大型模塊化交換機成本非常高。

我過去常採用以下這幾個方法緩解三層架構中網路分離問題:
(1)、PVLAN: 專用VLAN,也稱為埠隔離,是計算機網路中的一種技術,其中VLAN包含受限制的交換機埠,使得它們只能與給定的埠通信。這個常用於後端的NFS網路。
(2)、VRF虛擬化路由表,用於路徑隔離。
(3)、GRE Tunnel。
(4)、使用一些Overlay network封裝協議並結合一操作系統虛似化實現網路分離。

Leaf-Spine網路架構解決了傳統三層網路架構所面臨的Oversubscription和內部伺服器之間橫截面帶寬問題。Leaf-Spine網路架構在過去幾年裡已開始接管主要的雲服務數據中心。Leaf-Spine結構也稱為Clos結構,其中每個Leaf交換機(ToR交換機)以全網狀拓撲連接到每個Spine交換機。這是一種兩層的Fat-tree網路。這種架構中Leaf之間只有一個跳,最大限度地減少了任何延遲和瓶頸。Spine網路的擴展非常簡單,只要在需增長的情況下逐步添加Spine交換機。

Leaf-Spine架構使用定製的定址方案和路由演算法,而非傳統的STP。根據網路交換機中可用的功能,可以使用第2層或第3層技術實現Leaf-Spine網格。第3層的Leaf-Spine要求每個鏈路都被路由,並且通常使用開放最短路徑優先(OSPF)或等價多路徑路由( ECMP )來實現的邊界網關協議(BGP)動態路由。第2層採用loop-free的乙太網fabric技術,例如多鏈接透明互聯(TRILL)或最短路徑橋接(SPB, IEEE 802.1aq)。其中,思科的FabricPath 和Brocade的Virtual Cluster Switching是基於TRILL發展而來的私有data plane。核心網路還可使用帶有ECMP的動態路由協議通過第3層連接到主幹網。華為、聯想、Brocade、HP、 Extreme Networks等公司都有基於TRILL的產品或其它Leaf-Spine架構的解決方案。

Leaf-Spine結構的優點是:

(1)、使用所有鏈路互連,而不像傳統網路中冗餘鏈路被STP阻塞。
(2)、所有內部Leaf之間橫向通信都是等距的,因此數據流延時時間是確定的。
(3)、Underlay的交換機配置和核心網路配置是固定的,因此變更Overlay Network的路由不需要更改核心網路。
(4)、產品安全區域能虛擬分離,擴展了VLAN和多租戶安全性。
(5)、基礎設施的物理網路可以和邏輯網路(Overlay network)分離。

Leaf-Spine結構也有些缺點,比如:

(1)、網路交換機的數量遠遠大於三層網路架構。
(2)、擴展新的Leaf時需要大量的線纜、並佔用大量Spine交換機埠。
(3)、Spine交換機埠數量決定了最大可聯接的Leaf交換機數量,也就決定了最大主機總數量。

下圖是我參與過的一個公有雲Leaf-Spine方案示意草圖。

現代的數據中心部署中,我們一般將網路設備、伺服器和機架在出廠時應模塊化。對於使用Leaf-Spine 網路的數據中心,出廠時預裝配成四種類型的標准工程系統:Transit 機櫃, Spine 機櫃, Fabric 機櫃, 和 Server 機櫃。Leaf 交換機和伺服器一樣被預裝配於 Server 機櫃,基本上做到開櫃上電即可上線使用。

當下全球主流公有雲基本上採用的都是Leaf-Spine 網路架構。然而,各家公有雲服務商Leaf-Spine網路中的Underlay Network和Overlay Network使用的協議和方案有很大區別。比如,你可以基於Leaf-Spine架構使用VXLAN來設計你的SDN解決方案,也可以基於ECMP的BGP-labeled-unicast的underlay 網路,使用MPLS L3VPNs構建另一種多租戶的數據中心SDN解決方案。

聊完了兩種層數據中心網路架構,相信大家如有機會搭建新的網路時,應該知道如何選擇您的網路架構方案了。

歡迎大家發表留言,談談你所熟悉的Leaf-Spine網路架構方案中,Underlay Network和Overlay Network使用的協議分別是什麼。

參考資料:
(1)、 Building Multi tenant Data Centers with MPLS L3VPNs
(2)、 Cisco Data Center Spine-and-Leaf Architecture: Design Overview White Paper

6、踐行AI戰略:華為引領數據中心網路邁入人工智慧時代

AI正在成為企業助力決策、提升客戶體驗、重塑商業模式與生態系統、乃至整個數字化轉型的關鍵驅動力。

但在嶄新的AI時代,數據中心網路性能也正在成為AI算力以及整個AI商用進程發展的關鍵瓶頸,正面臨諸多挑戰。

為此,華為以「網路新引擎 AI贏未來」為主題發布了業界首款面向AI時代數據中心交換機CloudEngine 16800,將人工智慧技術創新性的應用到數據中心交換機,引領數據中心網路邁入AI時代。

AI時代數據中心網路面臨三大挑戰

當前,數字化轉型的持續推進,正在提速驅動數據量暴增;同時,語音/視頻等非結構化數據佔比持續提高,龐大的數據量和處理難度已遠超人類的處理能力,需要基於機器運算深度學習的AI演算法來完成海量無效數據的篩選和有用信息的自動重組,從而獲得高效的決策建議和智慧化的行為指引。

根據華為GIV 2025(Global Instry Vision)的預測,企業對AI的採用率將從2015年的16%增加到2025年86%,越來越多的企業將利用AI助力決策、重塑商業模式與生態系統、重建客戶體驗。

作為人工智慧的「孵化工廠」,數據中心網路正成為AI等新型基礎設施的核心。但與此同時,隨著AI時代的到來,AI人工智慧的算力也受到數據中心網路性能的影響,正在成為AI商用進程的一大瓶頸。

華為網路產品線總裁胡克文指出,AI時代的數據中心網路將面臨以下三大挑戰:

挑戰1.AI算力。高性能數據中心集群對網路丟包異常敏感,未來的網路應該做到零丟包。但傳統的乙太網即使千分之一的丟包率,都將導致數據中心的AI算力只能發揮50%。

挑戰2.大帶寬。未來5年,數字洪水猛增近20倍,現有100GE的網路無法支撐。預計全球年新增數據量將從2018年的10ZB猛增到2025年180ZB(即1800億TB),現有100GE為主的數據中心網路已無法支撐數據洪水的挑戰。

挑戰3.要面向自動駕駛網路的能力。隨著數據中心伺服器規模的增加,以及計算網路、存儲網路和數據網路三網融合,傳統人工運維手段已難以為繼,亟需引入創新的技術提升智能化運維的能力,如何用新的技術去使能、把網路問題排查出來成為業界都在思考的問題。

華為定義AI時代數據中心交換機三大特徵

從行業大勢來看,隨著以人工智慧為引擎的第四次技術革命正將我們帶入一個萬物感知、萬物互聯、萬物智能的智能世界,數據中心網路也必須從雲時代向AI時代演進。在華為看來,數據中心需要一個自動駕駛的高性能網路來提升AI算力,幫助客戶加速AI業務的運行。

那麼,AI時代的數據中心網路究竟該如何建設呢?胡克文指出,「華為定義了AI時代數據中心交換機的三大特徵:內嵌AI晶元、單槽48 x 400GE高密埠、能夠向自動駕駛網路演進的能力。」

特徵1.業界首款內嵌AI晶元數據中心交換機,100%發揮AI算力

從應用側來看,刷臉支付的背後是上億次圖像信息的智能識別,深度 健康 診斷需要基於數千個演算法模型進行分析,快捷網購體驗離不開數百台伺服器的智能計算。也就是說,新商業物種的誕生,產業的跨越式發展以及用戶體驗得以改變,強烈地依賴於人臉識別、輔助診斷、智能推薦等AI應用的發展。

但由於AI算力受到數據中心網路性能的影響,正在成為AI商用進程的關鍵瓶頸。為了最大化AI算力,存儲介質演進到快閃記憶體檔,時延降低了不止100倍,計算領域通過採用GPU甚至專用的AI晶元將處理數據的能力提升了100倍以上。

CloudEngine 16800是業界首款搭載高性能AI晶元的數據中心交換機,承載獨創的iLossLess智能無損交換演算法,實現流量模型自適應自優化,從而在零丟包基礎上獲得更低時延和更高吞吐的網路性能,克服傳統乙太網丟包導致的算力損失,將AI算力從50%提升到100%,數據存儲IOPS(Input/Output Operations Per Second)性能提升30%。

特徵2.業界最高密度單槽位48 x 400GE,滿足AI時代5倍流量增長需求

數據中心是互聯網業務流量匯聚點,企業AI等新型業務驅動了數據中伺服器從10G到25G甚至100G的切換,這就必然要求交換機支持400G介面,400GE介面標准化工作已經於2015年啟動,目前針對數據中心應用已經完成標准化,400G時代已經來臨。

集群的規模是數據中心架構演進的動力,經典的無阻塞CLOS理論支撐了數據中心伺服器規模從千台、萬台到今天10萬台規模的發展,增大核心交換機容量是數據中心規模擴大的最常見手段。以一個1000T流量規模的數據中心組網為例,採用400GE技術,核心匯聚交換機需要5K個介面,相對100GE技術減少75%。

為此,CloudEngine 16800全面升級了硬體交換平台,在正交架構基礎上,突破超高速信號傳輸、超強散熱、高效供電等多項技術難題,不僅支持10G→40G→100G→400G埠平滑演進能力,還使得單槽位可提供業界最高密度48埠400GE線卡,單機提供業界最大的768埠400GE交換容量,交換能力高達業界平均的5倍,滿足AI時代流量倍增需求。同時,CloudEngine 16800在PCB板材、工藝、散熱,供電等多方面都進行了革命性的技術改進和創新,使得單比特功耗下降50%。

特徵3.使能自動駕駛網路,秒級故障識別、分鍾級故障自動定位

當數據中心為人工智慧提供了充分的技術支撐去創新時,人工智慧也給數據中心帶來巨大利益,如藉助telemetry等技術將異常信息送到集中的智能運維平台進行大數據分析,這極大提升了網路的運行和運維效率,降低運維難度和人力成本。但是當前計算和存儲正在融合,數據中心伺服器集群規模越來越大,分析的流量成千倍的增長,信息上報或者獲取頻度從分鍾級到毫秒級,再加上信息的冗餘,這些都使得智能運維平台的規模劇增,智能運維平台對性能壓力不堪重負降低了處理的效率。如何減輕智能運維平台的壓力,在最靠近伺服器,最靠近數據的網路設備具有智能分析和決策功能,成為提升運維效率的關鍵。

CloudEngine 16800基於內置的AI晶元,可大幅度提升「網路邊緣」即設備級的智能化水平,使得交換機具備本地推理和實時快速決策的能力;通過本地智能結合集中的FabricInsight網路分析器,構建分布式AI運維架構,可實現秒級故障識別和分鍾級故障自動定位,使能「自動駕駛網路」加速到來。該架構還可大幅提升運維系統的靈活性和可部署性。

引領數據中心網路從雲時代邁入AI時代

自2012年進入數據中心網路市場以來,目前華為已服務於全球6400+個用戶,廣泛部署在中國、歐洲、亞太、中東、非洲、拉美等全球各地,幫助互聯網、金融、政府、製造、能源、大企業等多個行業的客戶實現了數字化轉型。

2017年華為進入Gartner數據中心網路挑戰者象限;2018年進入Forrester數據中心SDN網路硬體平台領導者;2013-2018年,全球數據中心交換機廠商中,華為連續六年復合增長率第一,發展勢頭強勁。

早在2012年,華為就以「雲引擎,承未來」為主題,發布了CloudEngine 12800數據中心核心交換機,七年以來這款面向雲時代的交換機很好的支撐了數據中心業務彈性伸縮、自動化部署等核心訴求。

而隨著本次華為率先將AI技術引入數據中心交換機、並推出面向AI時代的數據中心交換機CloudEngine 16800,華為也在引領數據中心網路從雲時代邁入AI時代。

2018年,華為輪值董事長徐直軍宣布:將人工智慧定位為新的通用技術,並發布了人工智慧發展戰略,全面將人工智慧技術引入到智能終端、雲和網路等各個領域。而本次華為發布的業界首款面向AI時代數據中心交換機CloudEngine 16800,也是華為在網路領域持續踐行AI戰略的集中體現。

而作為華為AI發展戰略以及全棧全場景AI解決方案的一個重要組成部分,CloudEngine 16800不僅是業界首款面向AI時代的數據中心交換機,還將重新定義數據中心網路的代際切換,助力客戶使能和加速AI商用進程,引領數據中心真正進入AI時代。

7、數據中心網路之百家講壇

最近因為寫論文的關系,泡知網、泡萬方,發現了很多學術界對數據中心網路一些構想,發現裡面不乏天才的想法,但日常我們沉迷在各個設備廠商調制好的羹湯中無法自拔,管中窺豹不見全局,還一直呼喊著「真香」,對於網工來說沉溺於自己的一方小小天地不如跳出來看看外界有哪些新的技術和思想,莫聽穿林打葉聲,何妨吟嘯且徐行

當前新的數據中心網路拓撲主要分為兩類

1、以交換機為核心,網路連接和路由功能由交換機完成,各個設備廠商的「羹湯」全屬於這個領域

2、以伺服器為核心,主要互聯和路由功能放在伺服器上,交換機只提供簡單縱橫制交換功能

第一類方案中包含了能引發我回憶陰影的Fat-Tree,和VL2、Helios、c-Through、OSA等等,這些方案要麼採用更多數量交換機,要麼融合光交換機進行網路互聯,對交換機軟體和硬體要求比較高,第二類主要有DCell、Bcube、FiConn、CamCube、MDCube等等,主要推動者是微軟,這類方案中伺服器一版會通過多網卡接入網路,為了支持各種流量模型,會對伺服器進行硬體和軟體的升級。

除了這些網路拓撲的變化外,其實對數據中心網路傳輸協議TCP/IP、網路虛擬化、網路節能機制、DCI網路互聯都有很多創新的技術和概念涌現出來。

FatTree  胖樹,2008年由UCSD大學發表的論文,同時也是5年前工作中接觸的第一種交換機為中心的網路拓撲,當時沒有太理解,跟客戶為這事掐的火星四濺,再來一次可能結論會有所改變,同時也是這篇論文引發了學術界對數據中心內部網路拓撲設計的廣泛而深刻的討論,他提出了一套組網設計原則來達成幾個目的

1、全網採用低端商用交換機來組網、其實就是採用1U的接入交換機,取消框式設備

2、全網無阻塞

3、成本節省,紙面測算的話FatTree 可以降為常規模式組網成本的1/4或1/5

物理拓撲(按照4個pod設計)

FatTree 的設計原則如下

整個網路包含K個POD,每個POD有K/2個Edge和K/2個Agg 交換機,他們各有K的介面,Edge使用K/2個埠下聯伺服器,Agg適用K/2個埠上聯CORE交換機

Edge使用K/2個埠連接伺服器,每個伺服器佔用一個交換埠

CORE層由K/2*K/2共計KK/4個K個埠交換機組成,分為K/2組,每組由K/2ge,第一組K/2台CORE交換機連接各個POD中Agg交換層一號交換機,第二組K/2的CORE交換機連接各POD中Agg的二號交換機,依次類推

K個POD,每個POD有K/2個Edge交換機,每個Edge有K/2埠,伺服器總數為K*K/2*K/2=KKK/4

K取值4的話,伺服器總數為16台

常規K取值48的話,伺服器為27648台

FatTree的路由設計更加有意思,論文中叫兩階段路由演算法,首先要說明的是如果使用論文中的演算法是需要對交換機硬軟體進行修改的,這種兩階段路由演算法和交換設備及伺服器的IP地址強相關,首先就是IP地址的編制,這里依然按照K=4來設計,規則如下

1、POD中交換機IP為10.pod.switch.1,pod對應POD編號,switch為交換機所在POD編號(Edge從0開始由左至右到k/2-1,Agg從k/2至k-1)

2、CORE交換機IP為10.k.j.i ,k為POD數量,j為交換機在Core層所屬組編號,i為交換機在該組中序號

3、伺服器IP為10.pod.switch.ID,ID為伺服器所在Edge交換機序號,交換機已經佔用.1,所以從2開始由左至右到k/2+1

設計完成後交換機和伺服器的IP地址會如下分配

對於Edge交換機(以10.2.0.1為例)第一階段匹配10.2.0.2和10.2.0.3的32位地址,匹配則轉發,沒有匹配(既匹配0.0.0.0/0)則根據目的地址後8位,也就是ID號,選擇對應到Agg的鏈路,如目標地址為x.x.x.2則選擇到10.2.2.1的鏈路,目標地址為x.x.x.3則選擇到10.2.3.1的鏈路

對於Agg交換機(以10.2.2.1為例)第一階段匹配本POD中網段10.2.0.0/24和10.2.1.0/24,匹配成功直接轉發對應Edge,沒有匹配(既匹配0.0.0.0/0)則根據目的地址後8位,也就是ID號確定對應到Core的鏈路,如目標地址為x.x.x.2則選擇到10.4.1.1的鏈路,目標地址為x.x.x.3則選擇到10.4.1.2的鏈路

對於Core交換機,只有一個階段匹配,只要根據可能的POD網段進行即可,這里是10.0.0.0/16~10.3.0.0/16對應0、1、2、3四個口進行轉發

容錯方面論文提到了BFD來防止鏈路和節點故障,同時還有流量分類和調度的策略,這里就不展開了,因為這種兩階段路由演算法要對交換機硬體進行修改,適應對IP後8位ID進行匹配,現實中沒有看到實際案例,但是我們可以設想一下這種簡單的轉發規則再加上固定埠的低端交換機,對於轉發效率以及成本的壓縮將是極為可觀的。尤其這種IP地址規則的設計配合路由轉發,思路簡直清奇。但是仔細想想,這種按照特定規則的IP編制,把每個二層限制在同一個Edge交換機下,註定了虛擬機是沒有辦法跨Edge來遷移的,只從這點上來看註定它只能存在於論文之中,但是順著這個思路開個腦洞,還有什麼能夠編制呢?就是MAC地址,如果再配上集中式控制那就更好了,於是就有了一種新的一種路由方式PortLand,後續我們單獨說。

如此看來FatTree 是典型的Scale-out模式,但是由於一般交換機埠通常為48口,如果繼續增加埠數量,會導致成本的非線性增加,底層Edge交換機故障時,難以保障服務質量,還有這種拓撲在大數據的maprece模型中無法支持one-to-all和all-to-all模式。

把腦洞開的稍微小一些,我們能否用通用商業交換機+通用路由來做出來一種FatTree變種拓撲,來達到成本節省的目的呢,答案一定是確切的,目前能看到阿里已經使用固定48口交換機搭建自己的變種FatTree拓撲了。

以交換機為中心的網路拓撲如VL2、Helios不再多說,目前看到最好的就是我們熟知的spine-leaf結構,它沒有設計成1:1收斂比,而且如果使用super層的clos架構,也可以支撐幾萬台或者百萬台的伺服器規模,但是FaTtree依靠網路拓撲取消掉了框式核心交換機,在一定規模的數據中心對於壓低成本是非常有效的

聊完交換機為核心的拓撲設計後,再來看看伺服器為核心的拓撲,同樣這些DCell、Bcube、FiConn、CamCube、MDCube等,不會全講,會拿DCell來舉例子,因為它也是2008年由微軟亞洲研究院主導,幾乎和FatTree同時提出,開創了一個全新的思路,隨後的年份里直到今天一直有各種改進版本的拓撲出現

這種伺服器為核心的拓撲,主導思想是在伺服器上增加網卡,伺服器上要有路由轉發邏輯來中轉流量數據包,並且採用遞推方式進行組網。

DCell的基本單元是DCell0,DCell0中伺服器互聯由一台T個埠的mini交換機完成,跨DCell的流量要通過伺服器網卡互聯進行繞轉。通過一定數量的Dcell0組成一個DCell1,按照一定約束條件進行遞推,組成DCell2以及DCellk

上圖例中是一個DCell1的拓撲,包含5個Dcell0,每台伺服器2個埠,除連接自己區域的mini交換機外,另一個埠會依次連接其他DCell0中的伺服器,來組成全互聯的結構,最終有20台伺服器組成DCell1,所有伺服器按照(m,n)坐標進行唯一標識,m相同的時候直接通過moni交換機交互,當m不同時經由mini交換機中繼到互聯伺服器,例子中紅色線為4.0伺服器訪問1.3伺服器的訪問路徑。

DCell組網規則及遞歸約束條件如下:

DCellk中包含DCellk-1的數量為GK

DCellk中包含伺服器為Tk個,每台伺服器k+1塊網卡,則有

GK=Tk-1+1

TK=Gk-1 ✕ Tk-1

設DCell0中有4台伺服器

DCell1 中有5個DCell0 (G1=5)

Tk1=20台伺服器(T1=20)

DCell2 中有21個DCell1 (G2=21)

Tk2=420台伺服器(T2=420)

DCell3 中有421個DCell2 (G3=421)

Tk3=176820台伺服器(T3=176820)



Tk6=3260000台伺服器

經過測算DCell3中每台伺服器的網卡數量為4,就能組建出包含17萬台伺服器的數據中心,同樣DCell的缺點和優點一樣耀眼,這種遞歸後指數增長的網卡需求量,在每台伺服器上可能並不多,但是全量計算的話就太過於驚人了,雖然對比FatTree又再一次降低交換機的采購成本,但是天量的網卡可以想像對於運維的壓力,還有關鍵的問題時高層次DCell間通信佔用低層次DCell網卡帶寬必然導致低層次DCell經常擁塞。最後還有一個實施的問題,天量的不同位置網卡布線對於施工的准確度以及未知的長度都是一個巨大的挑戰。

DCell提出後,隨後針對網卡數量、帶寬搶占等一系列問題演化出來一批新的網路拓撲,思路無外乎兩個方向,一個是增加交換機數量減少單服務網卡數量,趨同於spine-leaf體系,但是它一直保持了伺服器多網卡的思路。另一種是極端一些,乾脆消滅所有交換機,但是固定單伺服器網卡數量,按照矩陣形式組建純伺服器互聯結構,感興趣的同學可以繼續探索。

數據中心的路由框架涵蓋范圍和領域非常多,很多論文都選擇其中的一個點進行討論,比如源地址路由、流量調度、收斂、組播等等,不計劃每個展開,也沒有太大意義。但是針對之前FatTree的兩階段路由有一個更新的路由框架設計PortLand,它解決了兩段路由中虛擬機無法遷移的問題,它的關鍵技術有以下幾點

1、對於FatTree這種高度規范化的拓撲,PortLand設計為採用層次化MAC編址來支持大二層,這種路由框架中,除了虛擬機/物理機實際的MAC外(AMAC),還都擁有一個PortLand規范的偽MAC(PMAC),網路中的轉發機制和PMAC強相關,PMAC的編址規則為

pod.position.port.vmid

pod (2位元組) 代表虛擬機/伺服器所在POD號,position(1位元組)虛擬機/伺服器所在Edge交換機在POD中編號,port(1位元組)虛擬機/伺服器連接Edge交換機埠的本地編號,vmid(2位元組)伺服器在Edge下掛乙太網交換機編號,如果只有一台物理機vmid只能為1

2、虛擬機/伺服器的編址搞定後,Edge、Aggregate、Core的編址呢,於是PortLand設計了一套拓撲發現機制LDP(location discovery protocol),要求交換機在各個埠上發送LDP報文LDM(location

discovery message)識別自己所處位置,LDM消息包含switch_id(交換機自身mac,與PMAC無關)pod(交換機所屬pod號)pos(交換機在pod中的編號)level(Edge為0、Agg為1、Core為2)dir(上聯為1,下聯為-1),最開始的時候Edge角色會發現連接伺服器的埠是沒有LDM的,它就知道自己是Edge,Agg和Core角色依次收到LDM後會計算並確定出自己的leve和dir等信息。

3、設計一個fabric manager的集中PortLand控制器,它負責回答Edge交換機pod號和ARP解析,當Edge交換機學習到一個AMAC時,會計算一個PMAC,並把IP/AMAC/PMAC對應關系發送給fabric manager,後續有虛擬機/伺服器請求此IP的ARP時,會回復PMAC地址給它,並使用這個PMAC進行通信。

4、由於PMAC的編址和pod、pos、level等信息關聯,而所有交換機在LDM的交互過程中知曉了全網的交換機pod、pos、level、dir等信息,當數據包在網路中傳播的時候,途徑交換機根據PMAC進行解析可得到pod、pos這些信息,根據這些信息即可進行數據包的轉發,數據包到達Edge後,Edge交換機會把PMAC改寫為AMAC,因為它是知道其對應關系的。當虛擬機遷移後,由fabric manager來進行AMAC和PMAC對應更新和通知Edge交換機即可,論文中依靠虛擬機的免費ARP來觸發,這點在實際情況中執行的效率要打一個問號。

不可否認,PortLand的一些設計思路非常巧妙,這種MAC地址重寫非常有特色。規則設計中把更多的含義賦給PMAC,並且通過LDP機制設計為全網根據PMAC即可進行轉發,再加上集中的控制平面fabric manager,已經及其類似我們熟悉的SDN。但是它對於轉發晶元的要求可以看出要求比較低,但是所有的轉發規則會改變,這需要業內對於晶元和軟體的全部修改,是否能夠成功也看市場驅動力吧,畢竟市場不全是技術驅動的。

除了我們熟悉的拓撲和路由框架方面,數據中心還有很多比較有意思的趨勢在發生,挑幾個有意思的

目前數據中心都是乙太網有線網路,大量的高突發和高負載各個路由設架構都會涉及,但是如果使用無線是不是也能解決呢,於是極高頻技術在數據中心也有了一定的研究(這里特指60GHZ無線),其吞吐可達4Gbps,通過特殊物理環境、波束成形、有向天線等技術使60GHZ部署在數據中心中,目前研究法相集中在無線調度和覆蓋中,技術方案為Flyways,它通過合理的機櫃擺放及無線節點空間排布來形成有效的整體系統,使用定向天線和波束成形技術提高連接速率等等新的技術,甚至還有一些論文提出了全無線數據中心,這樣對數據中心的建設費用降低是非常有助力的。

數據中心目前應用的還是TCP,而TCP在特定場景下一定會遇到性能急劇下降的TCP incast現象,TCP的擁塞避免和慢啟動會造成當一條鏈路擁塞時其承載的多個TCP流可能會同時觸發TCP慢啟動,但隨著所有的TCP流流量增加後又會迅速達到擁塞而再次觸發,造成網路中有時間流量很大,有時間流量又很小。如何來解決

數據中心還有很多應用有典型的組通信模式,比如分布式存儲、軟體升級等等,這種情況下組播是不是可以應用進來,但是組播在數據中心會不會水土不服,如何解決

還有就是數據中心的多路徑,可否從TCP層面進行解決,讓一條TCP流負載在不同的鏈路上,而不是在設備上依靠哈希五元組來對每一條流進行特定鏈路分配

對於TCPincast,一般通過減少RTO值使之匹配RTT,用隨機的超時時間來重啟動TCP傳輸。還有一種時設計新的控制演算法來避免,甚至有方案拋棄TCP使用UDP來進行數據傳輸。

對於組播,數據中心的組播主要有將應用映射為網路層組播和單播的MCMD和Bloom Filter這種解決組播可擴展性的方案

對於多路徑,提出多徑TCP(MPTCP),在源端將數據拆分成諾幹部分,並在同一對源和目的之間建立多個TCP連接進行傳輸,MPTCP對比傳統TCP區別主要有

1、MPTCP建立階段,要求伺服器端向客戶端返回伺服器所有的地址信息

2、不同自流的源/目的可以相同,也可以不同,各個子流維護各自的序列號和滑動窗口,多個子流到達目的後,由接收端進行組裝

3、MPTCP採用AIMD機制維護擁塞窗口,但各個子流的擁塞窗口增加與所有子流擁塞窗口的總和相關

還有部分針對TCP的優化,如D3協議,D3是針對數據中心的實時應用,通過分析數據流的大小和完成時間來分配傳輸速率,並且在網路資源緊張的時候可以主動斷開某些預計無法完成傳輸的數據流,從而保證更多的數據流能按時完成。

這的數據中心節能不會談風火水電以及液冷等等技術,從網路拓撲的角度談起,我們所有數據中心拓撲搭建的過程中,主要針對傳統樹形拓撲提出了很多「富連接」的拓撲,來保證峰值的時候網路流量的保持性,但是同時也帶來了不在峰值條件下能耗的增加,同時我們也知道數據中心流量多數情況下遠低於其峰值設計,學術界針對這塊設計了不少有腦洞的技術,主要分為兩類,一類時降低硬體設備能耗,第二類時設計新型路由機制來降低能耗。

硬體能耗的降低主要從設備休眠和速率調整兩個方面來實現,其難點主要時定時機制及喚醒速度的問題,當遇到突發流量交換機能否快速喚醒,人們通過緩存和定時器組合的方式進行。

節能路由機制,也是一個非常有特點的技術,核心思想是通過合理的選擇路由,只使用一部分網路設備來承載流量,沒有承載流量的設備進行休眠或者關閉。Elastic Tree提出了一種全網范圍的能耗優化機制,它通過不斷的檢測數據中心流量狀況,在保障可用性的前提下實時調整鏈路和網路設備狀態,Elastic Tree探討了bin-packer的貪心演算法、最優化演算法和拓撲感知的啟發演算法來實現節能的效果。

通過以上可以看到數據中心發展非常多樣化,驅動這些技術發展的根本性力量就是成本,人們希望用最低的成本達成最優的數據中心效能,同時內部拓撲方案的研究已經慢慢成熟,目前設備廠商的羹湯可以說就是市場化選擇的產物,但是數據中心網路傳輸協議、虛擬化、節能機制、SDN、服務鏈等方向的研究方興未艾,尤其是應用定製的傳輸協議、虛擬網路帶寬保障機制等等,這些學術方面的研究並不僅僅是紙上談兵,對於我知道的一些信息來說,國內的阿里在它的數據中心網路拓撲中早已經應用了FatTree的變種拓撲,思科也把數據中心內部TCP重傳的技術應用在自己的晶元中,稱其為CONGA。

坦白來說,網路從來都不是數據中心和雲計算的核心,可能未來也不會是,計算資源的形態之爭才是主戰場,但是網路恰恰是數據中心的一個難點,傳統廠商、學術界、大廠都集中在此領域展開競爭,創新也層出不窮,希望能拓展我們的技術視野,能對我們有一些啟發,莫聽穿林打葉聲、何妨吟嘯且徐行~

8、如何理解cisco企業架構

思科系統公司(Cisco Systems, Inc.),簡稱思科公司或思科,1984年12月正式成立,是互聯網解決方案的領先提供者,其設備和軟體產品主要用於連接計算機網路系統,總部位於美國加利福尼亞州聖何塞。1986年,Cisco第一台多協議路由器面市。1993年,思科建成了世界上第一個由1000台路由器連接的網路,由此進入了一個迅猛發展的時期。競爭方面,思科與華為一直是老對手。2012年10月,美國眾議院認定華為和中興危害其國家安全,而華為在其後的反駁中指出,華為、中興被認定威脅美國國家安全,正是思科在背後推波助瀾。正是思科在背後推波助瀾。
概述
為保護、優化和發展業務,制定任何業務連續性計劃時,都必須包含可靠的網路基礎設施,以便滿足各機構的數據保護需求,使應用能夠快速恢復正常運作,並保證用戶訪問的連續性。思科系統®公司以可以擴展、自適應的企業數據中心架構為基礎,為企業的數據中心經理提供業務連續性網路解決方案,除多種用戶訪問技術外,還能在多個數據中心和恢復站點之間提供經濟有效的通信。
挑戰
企業數據中心支持著對業務運作至關重要的很多應用,是各機構業務連續性戰略的焦點。如果應用和數據不可用,或者用戶無法訪問,企業不但會損失收入,還會降低生產率。更糟糕的是,這種情況還會破壞客戶和合作夥伴對企業的印象,或者受到法律訴訟。為實現保護、優化和發展業務的管理目標,很多IT機構都在重新思考自己的業務連續性計劃。業務連續性是對風險和威脅、新法規以及數據中心內IT與業務資源的整合趨勢高度敏感的企業最關注的問題。
目前,很多數據中心基礎設施都是分立的,不但難以管理和維護,也難以適應新技術和應用。不僅如此,一旦發生中斷或災難,相互隔離的應用環境既難以實施一致、適當的保護,維護成本又非常高。
為建立能夠支持業務永續性戰略的網路時,數據中心和業務連續性經理面臨很多問題:
磁帶備份存在很多限制——作為傳統的主流災難恢復方式,磁帶備份的速度慢,而且很難按時恢復關鍵應用和數據,因而難以滿足恢復時間的要求。但是,它在保持完整性方面所起的作用仍然不容忽視。
費用高——盡管業務連續性技術的成本近年來一直在下降,但配備鏡像軟體、冗餘設施和資源、電信服務和相應人力的成本仍然很高。因此,IT經理還需要利用一系列解決方案控制資本成本和運營成本,並保證企業能夠實現業務連續性目標。
延遲長——由於零數據損失同步鏡像要求在確認事務處理之前同時將數據寫至本地和遠程位置,因而影響了應用的性能。城域光網等傳輸技術可有效縮短延遲。一般情況下,由於光速的限制,對於多數實時事務處理應用,同步鏡像站點之間的實際距離最長為200km。
網路設施成本高——雖然帶寬成本持續下降,但大型數據中心鏡像和復制需要極高的容量。如果採用傳統的租用線路服務,這項費用將非常可觀。
用戶訪問——業務連續性計劃通常注重數據和應用可用性,但常常忽略了用戶訪問恢復數據和應用的需求。
業務連續性基本要素
業務影響評估表示了與應用停運、數據損失和用戶訪問中斷相關的風險和潛在成本。盡管最理想的情況是能夠最大程度地防止運行中斷和數據損失,但實現這一目標要麼成本太高,要麼不切實際。事實上,很多應用允許一定程度的停運,只有一部分關鍵業務應用需要隨時可用。風險評估利用兩個業務連續性指標對應用進行評價:
恢復點目標(RPO)——確定機構願意承受的數據損失風險,從零到幾分鍾或幾小時;
恢復時間目標(RTO)——量化應用的最長不可用時間。
盡管RPO和RTO指標對數據和應用級評估十分有用,但思科系統公司又提出了直接適用於網路的第三個指標——恢復訪問目標(RAO)。RAO確定了將用戶恢復應用的時間,不論從哪個時間點開始恢復。如果沒有RAO,實現應用RPO和RTO的實際價值就十分有限。例如,在正常運行期間,分支機構用戶可能會通過企業內部網WAN訪問位於主數據中心內的關鍵業務應用。如果應用發生故障,用戶需要利用回退方法,例如通過互聯網服務供應商(ISP)網路快速構建站點到站點虛擬專用網(VPN)連接,與支持恢復應用的備用數據中心建立連接。
各機構必須考慮所有備用數據中心或備用站點的遠近。因為只有備用數據中心或備用站點設立得足夠遠,才能減小斷電、火山爆發、颶風或地震等災難的影響。
圖1 業務連續性解決方案示意圖
利用RPO、RTO和RAO指標以及距離要求,業務連續性經理可以為每個應用配備一個與其業務角色相對應的技術解決方案(圖1)。這些解決方案可能包含下面介紹的一個或多個選項:
高可用性存儲網路——存儲區域網(SAN)或網路連接存儲(NAS)解決方案能夠應對本地伺服器故障,因為它能夠提供對備用或集群伺服器系統的訪問,以保證連續運作。共享存儲環境可以利用高級存儲系統,保證磁碟故障不會影響應用的正常運行。
集中備份——定期備份是多數商業應用的標准操作規程的一部分。作為最便宜的解決方案,集中磁帶備份需要的恢復時間最長,但它十分適合用於防止數據受損。目前,由於磁碟存儲介質的成本已越來越接近於磁帶存儲,因此,基於磁碟的「近線」備份系統越來越受到企業的歡迎,因為它的備份時間和恢復時間都很短。
遠程非同步復制——將數據變化復制到另一位置的遠程系統。根據數據的重要性,數據變化可以在每天規定的時間執行定時復制,也可以利用存儲系統、NAS設備、主機系統或嵌入在網路中的高級軟體在變化發生時執行非同步復制。這些解決方案的非同步特性具有很強的優勢。由於距離不會影響性能,因而不存在延遲限制。數據復制的恢復時間比磁帶備份短,但非同步特性不能保證恢復所有數據。
同步磁碟復制和鏡像——對於既要求以最快的速度恢復,又不允許數據損失的應用,可以利用存儲系統、主機上或集中在存儲網路中的高級軟體實施同步磁碟復制和鏡像解決方案。等到所有磁碟寫操作都通過高性能網路同步復制到遠程站點之後,事務處理才算完成,從而消除了任何事務處理損失。對這種方法的限制是延遲量,它限制了站點之間的實際距離。對於寫操作密集型應用和聯機事務處理應用,例如企業資源規劃和客戶關系管理,這一點尤為重要。
數據中心鏡像——為實現最高級連續性,越來越多的企業建立了兩個主數據中心,並在兩個站點之間構建了擴展伺服器集群。某些企業平常只使用一個主數據中心,另一個數據中心只在發生故障或災難時使用。但事實上,兩個數據中心可以同時作為「熱」數據中心或當前活動數據中心,即將一個數據中心的所有事務處理同步鏡像到另一個數據中心。這種解決方案共包含兩種操作模式。在第一種操作模式中,兩個數據中心共同承擔應用的事務處理負載,完全同步,利用全局負載均衡將用戶流量分布至兩個站點。鏡像數據中心和主數據中心能夠保證,任何一個數據中心的故障恢復都對用戶透明。另外,這種模式還能更好地利用昂貴投資,提高投資回報率。在第二種模式中,每個數據中心將作為部分應用的主數據中心,同時對另一數據中心的應用提供鏡像。如果某個數據中心發生故障,另一個數據中心將接管其全部應用。無論採用哪種模式,數據中心鏡像都能提供最高級業務連續性。
連續用戶訪問和連接——業務連續性必須包含RAO戰略,以便在情況發生變化時保持用戶與應用的正常連接。根據災難的嚴重程度,有的訪問方法對用戶透明,有的則需要人工重配置。對用戶透明的技術包括鏡像數據中心之間的全局負載均衡,遇到故障鏈路時自動轉換路徑,以及自動恢復到備用組件或設備等。需要重配置的技術包含用戶連接修改。例如,如果LAN因公司大樓火災而遭到破壞,用戶可以利用VPN連接進行遠程通信和訪問應用。
思科企業數據中心架構
思科®企業數據中心架構是一種和諧的網路架構,不但能滿足數據中心對融合、業務連續性和安全性的當前要求,還能滿足數據中心對刀片伺服器、虛擬化、Web服務和GRID等服務導向技術和應用計算技術的未來需求。通過這種架構,數據中心網路領域的全球領先廠商思科系統公司能夠為IT和網路經理提供適當的基礎設施,實現完整、廣泛的業務連續性戰略。思科企業數據中心以智能網路為基礎,不但能幫助企業消除當前面臨的應用中斷風險,還能幫助企業制定相應的計劃,為分散在各地的數據中心實現更先進的業務連續性功能。思科能夠幫助IT經理採用這種架構,利用經過測試和驗證的架構、切實可行的設計最佳實踐,以及既通用又考慮到每個合作夥伴的特點的配置模板,降低風險,縮短備份和恢復時間,並降低投資要求。利用其靈活性,企業能夠部署既有助於實現企業目標,又有助於有效實施新服務和應用的計算、存儲和軟體技術。實施這種自適應數據中心網路架構之後,IT機構能夠更好地實現保護、優化和發展業務的企業目標。它不但能保護關鍵應用和保密數據,還能提高數據中心的運作效率,快速建立安全的新應用環境,有效支持新的業務流程。利用高度靈活、有效的自適應數據中心網路,企業可以緩解競爭壓力,擴大市場規模,並加快新服務上市過程,因而能夠重新協調各種資源,促進企業發展。
思科企業數據中心架構包含三個層次(圖2):
基本基礎設施包括智能IP網路基礎設施、智能存儲網路和數據中心互聯;
網路系統智能包括安全性、供應優化、可管理性和可用性;
嵌入式應用和存儲服務包括存儲虛擬化、數據復制和分布以及高級應用服務。
圖2 業務連續性網路:企業數據中心架構的組成
思科業務連續性網路解決方案
業務連續性網路是任何業務連續性戰略的關鍵基礎。它不但能提供應用與存儲/備份源之間的連接、主數據中心與備用數據中心之間的連接,還能在故障發生之前、之中和之後優化用戶對應用的訪問。思科能夠提供最先進、最全面的業務連續性網路解決方案套件,並能夠與業界領先合作夥伴開發的業務連續性技術相集成。
思科為企業提供的靈活的大容量網路解決方案能夠支持從備份到數據中心鏡像的全套業務連續性IT解決方案。思科業務連續性網路解決方案具有以下特性:
永續性極高的數據中心IP網路;
可以擴展的智能存儲網路;
大容量、低延遲的SAN擴展和數據中心互聯;
永續、靈活的用戶訪問。
下面,我們將詳細介紹這些特性。
思科業務連續性網路的優點
這些解決方案具有以下優點:
靈活性——最豐富的業務連續性網路解決方案,能夠滿足各種企業應用對RTO和RPO的不同要求;
網路可用性——採用了切實可行的設計,實施了分層硬體和鏈路冗餘性,具有較高的軟體永續性;
能夠與領先存儲和系統廠商的產品互操作——風險低,集成和部署的速度快、成本低;
總擁有成本低——使企業能夠將業務連續性通信集成到一個能夠可靠支持多種應用的靈活網路基礎設施中,以降低電信成本;
採用了業界領先的技術——包括存儲網路內的高級數據復制智能和多協議支持,以及光網內的高密度流量和協議靈活性。
永續性極高的數據中心IP網路基礎設施
為保證對應用和伺服器的連續訪問,以及數據中心內伺服器之間的互聯,必須設計和部署數據中心IP網路基礎設施。網路可用性取決於設計的多個方面:交換機和路由器內的冗餘模塊化組件,交換機、路由器和伺服器之間的冗餘鏈路,以及用於快速、透明地切換到備用組件、設備和鏈路的高可用性智能。恢復還應該能夠提供高層服務,例如伺服器和應用的負載均衡和安全性。數據中心員工應遵循運作最佳實踐、工具和支持,以便快速響應技術問題,防止人為故障。
便於擴展的強大存儲網路
存儲網路是業務連續性戰略的關鍵組件。它能夠將存儲與伺服器分開,創建可由多台伺服器訪問的存儲「池」,從而改善數據可用性。這種方法的永續性高於直接連接存儲,因為即使伺服器發生故障,數據仍然可用。
存儲網路有助於提高應用和數據可用性,因為它能夠實現業務連續性解決方案的標准化和集中管理,例如磁帶備份、數據復制和多個系統之間的數據鏡像。利用存儲網路,能夠通過光纖通道或互聯網小型計算機系統介面(iSCSI)協議實現磁帶備份服務的整合。與傳統的SCSI備份解決方案相比,它能夠縮短備份和恢復時間,因為備份發生在與主數據中心LAN分開的網路上。思科採用了稱為虛擬存儲區域網(VSAN)的獨特存儲技術,這種技術能夠將相互分離的存儲「孤島」集成為可以擴展、可以集中管理的統一物理網路,而且不會影響邏輯獨立SAN的可用性或安全性。例如,VSAN可以為磁帶備份建立一個邏輯上獨立的網路。磁帶備份的專用帶寬不會影響使用SAN的其它時間關鍵型應用的性能或可用性(圖3)。思科存儲網路解決方案的其它優點還包括,它能夠將高級存儲智能集成到網段中。這種智能包括思科合作夥伴提供的虛擬化和數據復制軟體。利用這種智能,存儲管理員能夠集中控制存儲的增加,實現一致、透明的數據復制和鏡像。
圖3 多層智能存儲網路
思科提供以Cisco MDS 9000系列多層交換機為基礎,提供這種強大的智能化存儲網路基礎設施。
高容量、低延遲的數據中心互聯
目前,很多機構都將多種應用、伺服器和存儲集成到少數設施上,因此,保證這些整合數據中心不會成為單故障點已成為當務之急。根據預定風險,備用數據中心可以位於另一個辦公區、另一個城市、另一個國家或者地球的任何一個地方。為支持企業選定的業務連續性解決方案,企業需要制定相應的互聯戰略,通用的部署方案有兩種:辦公區/城域數據中心互聯和遠程長途連接(圖4)。
圖4 數據復制和SAN擴展方式
辦公區/城域數據中心互聯
在同一辦公區或城市范圍內部署備用數據中心的方案最多。由於距離短,因而能夠最大程度地縮短網路延遲,並支持任何業務連續性解決方案,包括同步磁碟和數據中心鏡像。很多高容量技術,包括密集波分多路復用(DWDM)、SONET、SDH和千兆/萬兆城域乙太網都具有很高的靈活性,能夠實現成本、管理和技術目標之間的均衡。不僅如此,企業還可以建立自己的城域光網,從電信運營商那裡租用容量,或者採用託管式服務。
DWDM——作為第一層技術,DWDM能夠經濟有效地增加光纖的可用帶寬。它能夠支持任何存儲協議,包括IBM光纖連接、企業系統連接(ESCON)、IBM Sysplex和耦合鏈路、光纖通道以及iSCSI。DWDM支持所有主LAN協議,支持數據、語音和視頻傳輸。思科能夠為城域DWDM系統提供超高網路容量(32通道,總吞吐量高達320Gbps)、高密度服務匯聚、通過靈活的收發方式在多種客戶機介面實現的服務透明性、綜合服務保護方式以及需要的放大功能。
SONET/SDH——SONET和SDH是大家熟知並已廣為部署的技術,能夠同時通過電子介面和光介面傳輸數據和時分多路復用(TDM)流量。最近的增強使乙太網和DWDM技術能夠與SONET/SDH集成在一起,從而充分展示了它能夠滿足不斷變化的網路要求的靈活性。SONET/SDH可以用於多項服務,例如SAN擴展。思科是下一代SONET/SDH解決方案的行業領先廠商,能夠在一個平台——目前可通過SONET/SDH同時支持光纖通道和ESCON的Cisco ONS 15454——上提供多種服務、帶寬和介面。
城域乙太網——作為城域網路(MAN)環境中提供千兆和萬兆乙太網的行業領先的解決方案廠商,思科能夠將通過乙太網MAN將基於IP和乙太網的業務連續性解決方案連接在一起,實現平滑的高容量傳輸,因而能夠為企業提供易操作性和管理性。由於思科支持IP光纖通道(FCIP)等標准協議,因而可實施經濟有效的業務連續性部署(圖5)。
圖5 選擇適當的城域乙太網技術
遠程連接
為了將超過城域距離(大於200km)的數據中心互聯在一起,思科提供多種傳輸方式。由於多數應用會因長途傳輸而產生過量延遲,思科並不建議企業為距離超過200km的多數應用採用同步鏡像解決方案,而是建議企業採用非同步復制技術。業務連續性應用的最佳服務選擇是SONET/SDH和IP。Cisco ONS 15454多服務供應平台通過SONET/SDH傳輸復制流量,並可選用多種協議,包括FCIP、IP和光纖通道。IP WAN服務可以利用IPSec和/或多協議標簽交換(MPLS)技術通過安全VPN服務傳輸FCIP和IP復制流量。
思科利用智能網路解決方案實現遠程非同步復制,以便提供協議轉換、高可用性、服務質量和安全性,使企業能夠可靠、經濟、有效地部署遠程業務連續性解決方案。
永續、靈活的用戶訪問
具有永續性的數據中心網路,網路間的高容量、低延遲互聯,以及強大的存儲網路是業務連續性網路解決方案的三大部分。第四部分也非常重要,其目的是利用具有永續性的靈活技術保證用戶對應用的訪問,以實現RAO目標。創建能夠滿足RAO要求的網路基礎設施時,網路經理應當制定關於本地和遠程員工、應用和通信的意外計劃和後勤計劃。這些計劃應解決以下問題:
用戶或遠程站點是否需要訪問數據中心應用和通信服務?
用戶是否能以適當的方式及時重新建立與備用站點的連接?
如果主訪問方法失敗,將採用哪種回退訪問方法?這些方法能否實現RAO目標?
網路是否能在發生網路故障時自動重新路由?
遠程位置是否需要多條不同ISP提供的鏈路與數據中心/備用數據中心相連?
如果主工作園區不可用,用戶是否需要特定的接入功能,例如從旅館或家裡接入?
這些問題可以用兩種方式解決:透明重定向和人工重連接。
透明重定向——這種技術對用戶不可見,它採用了負載均衡、伺服器和「路徑狀態敏感」路由、互聯網多路傳輸和高級路由技術。負載均衡可以在數據中心內部或之間執行。智能站點選擇能夠發現用戶的物理位置,並將用戶信息發送至距離最近或響應能力最高的數據中心。這種技術能夠檢測到某地點是否聯網,並確定路徑和伺服器的「狀況」。如果檢測到問題,負載均衡技術通常會在用戶不知情的情況下把連接流量轉移至另一個數據中心。
人工重連接——當主地點出現網路故障或者應用不可用時,需要用戶建立與應用的新連接。思科是訪問聯網的行業領先廠商,能夠為企業提供多種解決方案。對於人工重連接,思科在其路由器、交換機、防火牆和VPN集中器中提供可以擴展的靈活VPN終端選項。Cisco IOS® 軟體採用了強有力的故障切換和重路由技術,不但能從任何網路故障快速恢復,而且通常對用戶透明。為滿足快速創建移動辦公室的需要,思科以IEEE 802.11標准為基礎開發了安全無線網路解決方案(圖6)。
圖6 使用戶能夠對應用和數據執行連續、均衡的訪問
遷移到思科業務連續性網路
思科建議,企業應按照以下步驟開發並實施相應的業務連續性網路解決方案:
對所有企業應用執行業務影響評估,評價應用中斷的風險和成本;
與業務、IT和網路決策者一起制定業務連續性計劃,滿足應用影響評估要求;
與思科及其合作夥伴一起部署相應的業務連續性解決方案;
持續修改和測試計劃和解決方案,滿足不斷變化的需求。
利用思科提供的指導,企業可以將業務連續性網路部署為企業數據中心網路架構的主要組件之一。客戶可以提供高級服務,以便設計和審核相應的數據中心基礎設施和業務連續性解決方案,從而保持連續正常運行。
業務連續性合作夥伴關系
思科智能網路和存儲技術為業務連續性產品奠定了基礎,能夠幫助數據中心廠商出現故障時的業務永續性。思科能夠以多種方式與業界領先廠商合作,以便實現數據中心和業務連續解決方案的集成式順利供應,使企業不但能滿足當前要求,還能在發展和變化之後不斷調整。這些合作夥伴關系為數據中心經理提供了設計、部署和維護靈活數據中心,有效實現其企業目標所需的各種資源。
思科:業務連續性網路領域的領先廠商
業務連續性是開展業務的關鍵。目前,很多企業都在進行數據中心資源的整合,並追求效率的提高,因此,必須將業務連續性戰略融入到IT的各個層次,而且應該從支持所有數據中心通信的基礎網路開始。此網路不但能保證對關鍵業務應用的持續訪問,還能通過復制和鏡像保證應用和數據的適當恢復。無論發生任何故障和災難,思科為數據中心經理提供的有效的設計、模板、最佳實踐和網路解決方案都能幫助數據中心保持業務的正常運行。
以上內容來源互聯網,希望對大家有所幫助

9、數據泛濫,邊緣數據中心很有效

不斷增長的數據

隨著雲計算、數字媒體、5G的迅猛發展和物聯網的廣泛應用,組織需要隨時隨地滿足即時處理數據的需求。物聯網連接的人員、設備、感測器的數量預計將超過萬億。物聯網設備涵蓋了消費類電器、智能工業機器,甚至自動駕駛 汽車 ,正以前所未有的數據量和速度迅速淹沒現有的互聯網基礎設施。根據調查機構Gartner公司的研究,數據爆炸將對網路和IT基礎設施提出巨大的需求,成為新架構範例的主要驅動力,而這種新架構範例通常被稱為邊緣計算。它將把數據生產和計算的處理從大型數據中心轉移到邊緣。

人們對數據的需求不斷增長,對即時數據的需求正促成一場技術革命。這一切正改變著計算世界——與技術的交互方式,計算行業的基礎設施,滿足數據存儲和處理的速度等等,因為數據需求正以指數級的速度不斷增加。數據的這種轉移和由此產生的流量對數據中心行業產生了巨大的影響。延遲和性能成為組織衡量數據中心的共同標准。而邊緣成為服務和消費之間的最低延遲點。這意味著組織的內容盡可能貼近人們的眼球,雲計算 游戲 平台盡可能靠近 游戲 玩家,組織應用程序和工作負載盡可能靠近用戶,物聯網數據聚合點盡可能靠近感測器。而以更快速度到達邊緣的服務提供商將提供差異化的用戶體驗,從接近用戶上獲得性能的實質性好處,也獲得更接近客戶的附加效率和經濟效益。

為了保持競爭力,全球數據中心供應商必須履行對數字化轉型的承諾,包括雲存儲和處理來自物聯網設備的大量數據。根據希捷公司委託進行的DataAge 2025調查研究,2018年影響數據中心空間的趨勢說明,邊緣計算通過部署指導方向、結構的網路解決方案來改變對數據中心距離的需求,同時滿足設施的不同需求,以優化和管理基礎設施和數據中心運營的功能。

邊緣計算和支持SDN的數據中心只是說明數據與保護和實現通信的數據中心之間相互依賴的一些趨勢。對於內容永不滿足的需求和持續的信息收集,以及對該信息的處理也推動了對新型互聯網的需求,其中包括更分散的網路架構。優化數據中心和網路基礎設施會影響數據創建和使用的數量、速度和首選位置。數據需求的增長已經表明需要強大的互聯網基礎設施和即時可訪問的數據中心,從核心到邊緣和微邊緣,支持、存儲和互連幾乎每個設備的數據。

遷移到邊緣數據中心的數據

許多為人力資源、客戶管理和業務流程模塊提供基於雲計算的業務應用程序的全球性公司已進入邊緣數據中心市場,以優化終端用戶的體驗。在業務中,許多場景需要立即訪問從資產管理、流程優化和預測分析到超鏈接世界中供應鏈管理實時需求的數據。

因此,行業專家認識到邊緣計算是一種可以補充和取代傳統雲計算的新型計算架構,並大量增加更多的邊緣數據中心。邊緣計算背後的基本思想是將計算和存儲資源分布到數百萬甚至數十億個不同位置的設備中,以提供滿足日益增長的數字應用和服務需求所必需的分布式支持。邊緣計算解決方案旨在通過園區網路、蜂窩網路、數據中心網路或雲計算的分散式擴展為數據中心和雲計算服務提供補充。

通過邊緣計算增強數據中心的能力

根據調研機構IDC公司的數據,用戶對數據的需求將在2019年繼續上升,而隨著 科技 的進步、行業的興衰、數據的流動,計算服務的結構也將發生變化。推動數據消費需求的是邊緣計算。定義分布式邊緣計算的移動可以簡化為幾個戰略優勢:速度、容量、效率、成本和響應能力。

根據Gartner公司的另一份報告,到2022年,它所需的邊緣計算和分布式架構將成為所有數字業務的必要解決方案。40%的大型企業將邊緣計算原則上納入2021年的規劃項目,與2017年的不到1%相比顯著上升。邊緣計算可以支持商業生態系統,該生態系統在快速數據和實時整體管理方面蓬勃發展。

面臨邊緣計算的中斷

從基於雲計算的中央計算網路轉向更加分散的邊緣計算模型的影響是深遠的,特別是相對於部署在邊緣的各種設備的需求。正如從大型機到基於個人電腦的客戶端-伺服器架構的轉變對技術行業產生的巨大影響一樣,從基於雲計算的模型向物聯網驅動的邊緣計算環境過渡將產生巨大影響,並要求企業適應快速變革的速度。

邊緣計算對端點設備(諸如網關和邊緣伺服器等一系列新的中間設備)將提出更多要求,這些設備將支持完整的邊緣計算環境。這些設備需要相當大的內置計算和存儲能力來處理應用程序和工作負載。邊緣計算將繼續把工作負載傳遞給雲計算,但長期目標是在多個不同邊緣元素之間分配工作負載。

在一個顛覆和不斷改進的技術行業中,數據中心不斷響應變革和創新。其顛覆性趨勢正在提高生產力、靈活性、價值和數據中心能力。這些趨勢帶來了令人興奮的潛力,現在是考慮邊緣計算和數據中心如何影響組織運營的時候了。

徵稿啦

IDC圈 公眾號秉持著「與千萬人共成長」理念,如果你有優質的文章:或是行業熱點事件、技術趨勢的真知灼見,或是深度的應用實踐,歡迎投稿!

投稿郵箱 | [email protected]

10、什麼是數據中心?數據中心系統有哪幾部分組成?

IDC(Internet Data Center) - Internet數據中心,它是傳統的數據中心與Internet的結合,它除了具有傳統的數據中心所具有的特點外,如數據集中、主機運行可靠等,還應具有訪問方式的變化、要做到7x24服務、反應速度快等。IDC是一個提供資源外包服務的基地,它應具有非常好的機房環境、安全保證、網路帶寬、主機的數量和主機的性能、大的存儲數據空間、軟體環境以及優秀的服務性能。
IDC作為提供資源外包服務的基地,它可以為企業和各類網站提供專業化的伺服器託管、空間租用、網路批發帶寬甚至ASP、EC等業務。簡單地理解,IDC是對入駐(Hosting)企業、商戶或網站伺服器群託管的場所;是各種模式電子商務賴以安全運作的基礎設施,也是支持企業及其商業聯盟(其分銷商、供應商、客戶等)實施價值鏈管理的平台。形象地說,IDC是個高品質機房,在其建設方面,對各個方面都有很高的要求
網路建設
IDC主要是靠其有一個高性能的網路為其客戶提供服務,這個高性能的網路包括其- AN、WAN和與Internet接入等方面要求。
IDC的網路建設主要有: - IDC的- AN的建設,包括其- AN的基礎結構,- AN的層次,- AN的性能。 - IDC的WAN的建設,即IDC的各分支機構之間相互連接的廣域網的建設等。 - IDC的用戶接入系統建設,即如何保證IDC的用戶以安全、可靠的方式把數據傳到IDC的數據中心,或對存放在IDC的用戶自己的設備進行維護,這需要IDC為用戶提供相應的接入方式,如撥號接入、專線接入及VPN等。 - IDC與Internet互聯的建設。
- IDC的網路管理建設,由於IDC的網路結構相當龐大而且復雜,要保證其網路不間斷對外服務,而且高性能,必須有一高性能的網路管理系統。
機房場地建設
機房場地的建設是IDC前期建設投入最大的部分。由於IDC的用戶可能把其重要的數據和應用都存放在IDC的機房中,所以對IDC機房場地環境的要求是非常高的。IDC的機房場地建設主要在如下幾個方面: - 機房裝修:機房裝修主要考慮吊頂、隔斷牆、門窗、牆壁和活動地板等。- 供電系統:供電系統是IDC的場地建設重點之一,由於IDC的大量設備需要極大的電力功率,所以供電系統的可靠性建設、擴展性是極其重要的。供電系統建設主要有:供電功率、UPS建設(n+1)、配電櫃、電線、插座、照明系統、接地系統、防雷和自發電系統等。- 空調系統:機房的溫度、通風方式和機房空氣環境等。- 安全系統:門禁系統、消防系統和監控系統。- 布線系統:機房應有完整的綜合布線系統,布線系統包括數據布線、語音布線、終端布線。- 通信系統:包括數據線帶寬、語音線路數目等。