歡迎光臨
每天分享高質量文章

高性能計算(HPC)網絡市場分析報告解析(含報告)

Intersect360對HPC用戶現網系統中三個應用領域(系統互聯、儲存網絡和局域網LAN)的網絡型別和供應商的情況進行調研,調查的主要結果包括:

 

  • 以太網和InfiniBand是兩種主要的網絡協議,在系統互連、儲存網絡和局域網三個領域中都保持著競爭。在不考慮資料速率的情況下,以太網是這三個應用領域中應用最普遍的。對於性能更高的網絡互連,InfiniBand(尤其是40G)研究報告顯示是使用數量最多的。
  • 約2/3的受訪站點反饋在其網站上部署安裝了以太網和InfiniBand。
  • 10GE以太網在儲存網絡最多,包括從GE以太網升級業務而來的,超過InfiniBand安裝數量。
  • Mellanox是系統互連最常見的供應商,42%的用戶提到使用該網絡,35%的用戶提到在儲存網絡使用該網絡。思科仍然是局域網市場的領先供應商,有46%的用戶採用思科網絡。
  • Mellanox在每個領域都獲得了市場份額。在系統互連占42%,儲存網絡占35%,局域網絡占13%。
  • 報告顯示正如預期,以太網占據了這些站點的大部分局域網網絡實現,10千兆以太網和千兆以太網各占35%。預計千兆位以太網在未來幾年的市場份額將緩慢下降。

Intersect360利用基於Web的調查工具調查了來自行業、政府和學術界的高性能計算的用戶,收集並展示了關於硬體、軟體和網絡配置的信息。受訪者列出他們的高性能計算服務器、儲存、網絡、中間件和應用軟體的特征。

 

Intersect360研究公司每年進行大規模的普查。在2016年第二和第三季度連續第9次的調查,收到了來自240個站點的回覆,在2016年的普查報告中,共涉及487個高性能站點信息(包含之前兩次調查)。收集和調查地點資料的標的包括:

  • 開發需求側資料,用於跟蹤和建模高性能計算市場在機房、供應商定位、技術採用、用戶購買樣式等領域的基本特征。
  • 收集和比較需求端資料和供應端資料,以便準確構建整個HPC生態系統。
  • 隨著時間的推移跟蹤這些特性的趨勢。
  • 支持我們的高性能計算市場規模和預測模型。

站點調查產生了大量的及到供應商對市場的滲透、體系結構、處理器、互連、儲存和軟體以及購買樣式資料。這些信息在我們的現場普查報告系列中被提出和分析。本報告概述了在HPC用戶站點互連和網絡情況(系統、儲存和LAN)。總共有474個站點, 723個高性能計算系統、633個儲存系統和638個局域網的互連和網絡特性。

在調查中,我們詢問了受訪者關於安裝在三種場景的互連和網絡的特點:

 

  • 1)刀片服務器、集群和MPP系統的系統互連;
  • 2)儲存網絡;
  • 3)局域網或機房局域網(以下簡稱局域網)。

三個應用領域網絡型別比較

 

以太網(所有資料速率)是所有三種場景使用的主要技術,主要是由於千兆位以太網的優勢。該表的主要內容包括:

 

  • 超過30%的系統互連和局域網使用1GE以太網。Intersect360認為這些較慢的技術通常用於集群上的二級管理連接,以及小型面向吞吐量的集群的主要互連。

 

•大約72%的千兆位以太網被認為是次要的互連,而不是主要的。千兆以太網作為標準的集群互連繫統出現在許多系統中,這使得它在分佈式記憶體系統中得到了廣泛的應用。

 

  • InfiniBand繼續是高性能系統互聯的首選。如果不包括以太網1GE,InfiniBand的安裝量大約是以太網(10G、40G和100G)的總安裝量的兩倍。在InfiniBand安裝中,InfiniBand 40G仍然是安裝最多的。然而,對於2014年以後的系統來說,InfiniBand 56G是最受歡迎的系統選擇。

 

  • 10千兆以太網在儲存和局域網安裝中使用的比任何其他協議都多。報告顯示,10千兆以太網的安裝占所有儲存網絡的35%,InfiniBand一直在逐步增加其儲存網絡的份額,從31%增加到34%,幾乎所有的份額都來自InfiniBand 56G。

 

  • 2016年Omni-Path安裝在系統互連和儲存網絡中所占的份額很小(小於1%)。Omni-Path於2016年第一季度開始上量。因此,我們預計在以後的調查中會越來越多。

高性能計算站點互連和網絡型別

 

下麵圖示說明瞭在調查站點上安裝了哪種主要網絡型別,以及在HPC基礎設施上使用的主要網絡標準。統計資料是根據現場數量計算,使用相同的系統互連或網絡型別在一個站點上的多個系統或網絡只計算一次。

下圖顯示安裝了至少一種主要網絡型別(千兆位以太網或更慢、10千兆位以太網或更快、InfiniBand)共享的站點。顯示31%的站點,也是最大的份額的共享,統計包括所有三種網絡型別。接下來兩個最大的份額是InfiniBand和一種以太網的站點。大約65%的站點都在現場安裝了InfiniBand和以太網。這說明瞭站點網絡安裝的多樣性和複雜性。

圖示說明瞭每個網絡協議的使用位置。以太網(所有速率)、10千兆位以太網或更快的以太網和InfiniBand分別給出。百分比表示安裝了特定網絡的站點的份額。例如,446個以太網站點中有45%在所有領域(系統互連、儲存網絡和LAN)使用該技術,而25%僅在系統互連和LAN中使用該技術。

 

 

高速以太網 (10G、40G和100G)的站點常主要用於儲存網絡和局域網,如果它也用於該站點的LAN或儲存網絡,則更可能用作系統互連。

 

InfiniBand安裝在一個或多個應用領域,占69%,與過去幾次調查所得的比例大致相同。InfiniBand在儲存網絡上的使用有所增加,在使用InfiniBand的站點中,大約有56%的站點使用InfiniBand。Intersect360認為,在任何地區選擇InfiniBand的用戶,都是出於對更高性能的需求,尤其是更高的帶寬和更低的延遲,這兩個指標上,InfiniBand一直在以太網絡上保持著優勢。選擇InfiniBand作為系統互連的用戶,在將其擴展到儲存網絡時,可能也在利用這個架構優勢。

每個應用領域互連網絡和供應商

在51家頂級網絡供應商中,有20家在所有三個應用領域都有產品。Mellanox在系統互連和儲存網絡中被用戶提及的次數最多,是在系統互連方面的最強代表。思科在局域網產品中提及次數最多。Mellanox和思科兩個供應商在報告中,安裝數量占50%以上。

 

 

隨著技術變得更加標準化和可靠,用戶往往會對特定的供應商失去興趣和忠誠度。這種趨勢反映在用戶將系統或儲存供應商與系統中的組件技術相互關係。無論供應商在該系統上安裝了多少網絡組件,所提及的每個站點網絡供應商都被算作一次統計。完整的供應商串列請參考報告原文。

結論

 

對速度的需求幾乎是高性能計算和互連的主要驅動力,網絡也不例外。下圖顯示InfiniBand系統互連技術向更高速度過渡。對於2007年的系統,我們看到InfiniBand10G和20G之間的分佈大致相同。到2009年,更多的系統使用InfiniBand 40G。InfiniBand 40G在2014年之前占據了系統的大部分份額,當時InfiniBand 56G接管了主要的安裝系統互連,這一轉變非常迅速,最新的性能領導者在兩到三年內占據了大部分出貨量。

儲存網絡也在向最新技術的快速過渡。類似大多數技術,用戶試圖優化、向最新或更快互連網絡過渡,這似乎與服務器的生命周期(每兩到三年)的速度差不多。每次系統更新時,都會選擇最新或最好價格/性能互連網絡。

網絡性能的另一個驅動力是應用程式的並行化趨勢。隨著單執行緒性能的極限,用戶必須重寫應用程式,以便更好地使用並行性。一階並行化可以使用每個處理器的更多內核,向量或SIMD編程模型的OpenMP風格多執行緒軟體。

然而,向量模型並不是在所有情況下都有效。這種情況將迫使用戶探索訊息傳遞或MIMD解決方案,其中應用程式性能與網絡的延遲和帶寬特性或處理器節點之間的互連緊密相連。長期以來,為並行應用程式性能構建互連結構一直是MPP系統的主要關註點,MPP系統是圍繞專有互連構建的,而超級計算機集群往往使用最快的通用網絡技術。在所有級別上實現更大的應用程式並行化的趨勢,將推動市場對網絡性能的需求不斷走向高帶寬、低延時。

在這三個應用領域中,至少有兩個供應商占了超過50%的比例。Mellanox和Intel在系統互連,Mellanox和Cisco在儲存網絡和局域網。這三個供應商的網絡組件都是基於以太網或InfiniBand。

 

 

2016年,Omni-Path向高性能計算市場普及。英特爾在2012年從QLogic手中收購了技術,成為了InfiniBand 網絡的供應商,該公司現在以TrueScale品牌銷售。

 

在2016年的調查中,只有少數用戶(15%)提到了Omni-Path。儘管這一份額遠遠落後於Mellanox,但英特爾將通過引入Omni-Path技術,將其互連技術集成到其處理器路線圖中。這可能會在很大程度上改變系統Fabric業務的架構,因為英特爾可能會開始將網絡作為英特爾處理環境的特性擴展進行營銷。就目前而言,Mellanox在戰略上和行動上都先發制人,但是Mellanox花落誰家,未來該如何走,只能拭目以待

關於IS360 HPC網絡分析報告,請文末留言,並聯繫作者獲取。關於更多HPC、Omni-Path、Infiniband、pFS等技術,請點擊原文鏈接獲取更多內容。

推薦閱讀:

 

 

溫馨提示:

請搜索“ICT_Architect”“掃一掃”二維碼關註公眾號,點擊原文鏈接獲取更多電子書詳情

求知若渴, 虛心若愚

    赞(0)

    分享創造快樂