歡迎光臨
每天分享高質量文章

歷時三年,美圖全面容器化踩過的坑

導讀:本文由分享演講整理而成。通過圍繞美圖業務和大家分享下美圖容器基礎平臺建設中的探索經驗以及在業務落地過程中的具體問題和相應的方案。美圖從2016 年開始了容器相關的探索到 2018 年業務基本實現容器化,期間遇見的一些坑,同時也產生了相應的解決方案,希望對大家有一定的借鑒意義。

 

章敏鵬,目前就職於美圖技術保障部架構平臺,主要從事容器基礎平臺建設,流媒體體系相關建設。負責容器平臺基礎組件建設、調度系統研發、多機房及混合雲建設、流媒體基礎服務建設及用戶體驗優化等。在容器化技術及流媒體方向有著多年的積累及豐富的實戰經驗。

 

一、美圖業務

 

今天主要會圍繞美圖的業務情況,聊一聊在容器基礎平臺建設探索過程中遇見的一些問題,以及具體如何落地的方案,希望可以給大家一些參考。

 

美圖公司成立於2008年10月,懷揣著“成為全球懂美的科技公司”的願景,創造了一系列軟硬體產品,如美圖秀秀、美顏相機、短視頻社區美拍以及美圖拍照手機, 美圖產品的多樣化也催生了複雜多樣的服務端技術,億級MAU對服務端的技術要求也越加嚴苛。

 

2016 年我們開始調研容器化相關技術,2017年我們開始擁抱Kubernetes,2018年容器平臺基本落成並推進業務的整體容器化。我們期望通過容器化可以提升公司研發人員的線上支撐能力,提升持續開發和集成的能力,提升整體資源利用率和服務的可用性。

 

二、容器化建設

2.1 容器化之前

 

在業務容器化之前,我們業務是以物理機的方式部署到北京、寧波等多個IDC,部分服務部署到公有雲。其中大部分業務是單IDC部署,部分業務存在跨IDC間的呼叫,然後IDC之間通過專線打通。當時存在的幾個重要的問題:

1. 服務部署沒有進行隔離,業務混部需要控制得非常小心,資源的利用率非常低;

2. 業務型別較多,缺乏完全統一和完善的自動化運維手段,業務的增長會伴隨著維護人力的增加;

3. 測試環境與生產環境存在較大差異,這也導致一些生產環境問題不能在測試期間發現;

4. 開發人員線上意識較薄弱,線上故障率持續較高;

5. 面對機房級故障時業務遷移非常困難,出問題時只能尷尬地等機房恢復。

 

對此,我們希望通過積極的調整來解決掉存在的種種問題,而容器化是一個非常好的機會,可行性也比較高,同時我們希望藉著這個機會對我們的技術架構以及相關人員做一次從意識到技能的全面提升,為未來的技術演進鋪平部分道路。

 

2.2 選擇kubernetes

 

2017年容器編排的“戰爭”打完,Kubernetes取得領先並趨於成熟。我們也徹底投入到Kubernetes當中,容器系統的大規模落地離不開成熟的容器編排系統。kubernetes對容器的編排、資源的調度以及強大的擴展能力極大地方便了我們平臺的構建。 

 

單體容器如集裝箱,它統一的標準方便了調度運輸。Kubernetes提供了對集裝進行集中調度的碼頭和輪渡,讓一切井然有序並且易於實施。容器基礎平臺則好比基於容器和kubernetes之上的完整的運輸系統,它需要集裝箱,碼頭輪渡,高速公路等整套體系,實際服務容器化的過程不是一個簡單的打包裝箱和調度規划過程。大部分的服務與外界是有割不開聯繫的,需要保持與外界的聯通性,服務進駐容器更像是用戶住進集裝箱房子,她需要相應的基礎配套設施,像水,電,燃氣等等。所以我們首先是提供各種基礎設施,讓服務能進駐容器而不會水土不服。比如需要做好資源隔離,打通底層網絡,做好負載均衡,處理好應用日誌等等。

 

2.3 容器平臺建設

 

首先我們對多地機房及雲端資源進行梳理,成為我們計算及儲存的資源池。同時我們構建起基礎的容器網絡,日誌系統,儲存服務等底層基礎,然後依托Kubernetes完成了基於多租戶的容器管理平臺建設,提供完善的專案管理,服務編排,資源調度,負載均衡等能力。

 

我們提供同集群多租戶的樣式,所以對集群內的業務隔離,資源調度,彈性伸縮等都會有很高的要求。同時我們也存在多集群混合雲的應用場景,因此存在著對跨集群跨機房的容器網絡互通,多集群的負載均衡等的特定需求。

 

2.3.1 基礎建設之網絡

 

先來看基礎建設中網絡這一層。網絡屬於底層建設,解決的問題非常關鍵,容器網絡解決的問題主要包括:

1. Pod內部容器間的通信;

2. Pod與Pod的通信;

3. Pod 與Service的通信;

4. Service與集群外部的通信;

5. 跨集群跨網段通信。

 

容器網絡除了要解決上述的5個問題的同時也需要考慮如何將網絡層的性能損失最小化。接下來先來看看在網絡方案選擇上我們的一些考慮。

 

Kubernetes 通過CNI 提供了非常強的擴展能力,同時社區的活躍也讓網絡插件有了更多選擇的空間。CNI是CNCF旗下的一個專案,作為容器網絡標準,由一組用於配置網絡接口的規範和庫組成,同時還包含了一些插件。CNI僅關心容器創建時的網絡分配和當容器被刪除時釋放網絡資源。CNI具有廣泛的支持,而且規範易於實現,社區支持非常豐富,網絡可選方案也比較多。

 

網絡方案的選型方面,我們會比較看重性能、穩定性、可維護性相關。在對Flannel、Opencontrail、Contiv、Weave、Calico、Romana等開源方案進行詳細的對比和分析之後,最終選擇了Calico方案。經過我們實際的壓測驗證,Calico的性能比較接近Host 的性能。從社區活躍度、方案成熟程度和穩定性方面考慮Calico也是較為良好,同時其基於BGP的方案也為我們後繼的網絡擴展提供了可能性。

 

那麼在Calico方案裡面,Kubernetes創建Pod時的過程是怎樣的呢?Kubernetes 在創建Pod時,會先創建Sandbox的虛擬網絡,然後Pod中的容器直接繼承Sandbox網絡。在創建網絡時,Kubelet 服務會通過標準的 CNI 接口呼叫Calico CNI 插件,為容器創建一個 veth-pair 型別的網卡,並寫入路由表信息。節點上的路由表通過 Calico Bird 組件以 BGP 的形式廣播到其他鄰居上,其他節點在收到路由條目後在進一步聚合路由寫入到自身節點上。

 

Calico在同子網內直接使用BGP、跨子網時使用IPIP。 而IPIP 因為其單佇列的設計存在著性能瓶頸,這嚴重限制了節點的吞吐能力,特別是作為LB時影響更為嚴重,所以我們需要規避IPIP的問題。另外因為我們多機房建設需要打通不同機房、不同集群、不同網段的網絡,所以我們需要進一步推進網絡的優化。

 

圖一

 

進一步的網絡建設主要是三方面內容:

1. 多集群的容器網絡與物理網絡打通;

2. 去掉IPIP,關閉NAT優化性能;

3. 增加限速,對節點網絡進行保護;

 

圖一中是簡化後的一個網絡拓撲圖,集群的 Calico-RR(反射器) 與物理網關通過BGP進行打通,實現機房物理網絡與容器網絡拉平,解決了多集群網絡互通的問題,同時因為網絡已拉到同一平面,也直接規避 IPIP 的性能問題。從上圖可以看出,每個機房作為一個 AS部署一個 Kubernetes集群,機房內部冗餘有多個 RR(反射器),RR分別與機房內的網關建立 iBGP 連接,機房間的路由器通過 OSPF同步彼此之間的路由。

 

除了私有雲我們也需要解決混合雲的場景,實現集群網絡跨雲打通。受限於協議的支持,我們並沒有採用與私有雲一樣的打通方式。因為雲端網段相對固定,在規劃完成後變動較少,因此我們採用靜態路由的方式,機房網關上配置相應網段的靜態路由規則,同時在雲端路由上也配置上相應路由規則,最終打通路由路徑。

 

我們在實施的過程中遇到了不少細節上的問題,比如舊集群單個集群跨了三機房,在打通網絡時存在環路的情況需要通過靜態路由來規避問題。在做網絡限速時,插件存在Bug並且社區沒有解決(目前最新版本已解決了)需要手動修複。不過問題一一解決後,網絡基礎也完成了生產落地和打通。

 

2.3.2 基礎建設之LB

 

Kubernetes 在設計上其實是充分考慮了負載均衡和服務發現的,它提供了Service資源,並通過kube-proxy配合Cloud Provider來適應不同的應用場景。此外還有一些其它負載均衡機制,包括Service,Ingress Controller,Service Load Balancer,Custom Load Balancer。不過Kuernetes的設計有它實際適用的場景和局限性,並不能完全滿足我們複雜場景落地,同時也考慮到社區方案成熟度問題,最終我們使用了自定義開發的Custom Load Balancer。

 

七層負載的選型上,我們是使用了較為成熟的Nginx Custom Controller的方案。我們也對Envoy等方案進行了仔細對比,但是考慮到我們公司對於Nginx有非常成熟的運維經驗,以及我們很多業務依賴於Nginx的一些第三方擴展的功能,所以從推動業務容器快速落地角度、維護穩定性角度,我們最終選擇了Nginx 作為早期的落地方案。不過在與kubernetes結合方面,Nginx還是存在著不少的細節問題,我們也一直在推動解決,同時我們也在考慮Envoy等後續的優化方案。

 

Custom Load Balancer由 Nginx、 Kubenernet Controller以及管理組件組成。Kubenernet Controller負責監聽 Kubernetes資源,並根據資源情況動態更新Nginx 配置。Nginx Upstream直接配置對應的Service Endpoints,並增加相應的存活檢測機制。因為在網絡層面上物理網與容器網絡已拉平,所以Nginx 與各集群的 Service的Endpoint是完全鏈路可達的,因此也可直接支撐多集群的負載均衡。

 

LB 提供了友好的UI界面,提高了發佈的效率、減少人為故障。 同時,LB也具備灰度升級,流量控制,故障降級等相關基礎功能,並且提供了豐富的指標,讓運維監控可視化。

 

2.3.3 基礎建設之日誌

 

我們再來看一下另外一個比較重要的基礎設施——日誌。日誌其實是較為關鍵的基礎設施,它是審計,排障,監控報警等所必需的。日誌標準化一直是比較難推進的一件事情,特別是存在大量舊系統的情況下。一方面面臨業務代碼的改造,另一方面面臨著開發及運維習慣的改造。 而容器化恰好是推進日誌標準化很好的一個機會。

圖二

 

日誌架構上我們選用的是 Cluster-Level 的方式,使用Fluentd作為節點採集Agent。Docker 日誌驅動使用Json log-driver,業務容器日誌輸出到標準輸出,最終落盤到容器所屬的目錄中。Fluentd 採集Docker輸出日誌,並寫入Kafka佇列,Logstash 負責消費佇列資料併入 Elasticsearch, 同時由Kibana提供統一的日誌查詢界面。 

 

在業務容器化落地的過程中,日誌也暴露了很多的問題。如:兼容問題,標準輸出的日誌可能經過多層封裝導致日誌被截斷或者添加了額外內容,如PHP-FPM ,Nginx等。又比如日誌格式不統一,不同型別業務日誌格式各不相同,比較難完全統一。再比如業務日誌可靠性要求,有些允許極端情況下丟失,有些不允許丟失。

 

為了讓業務能更快速將舊業務遷移至容器平臺,我們為每種特性的業務型別做了定製化方案,輔助業務快速接入。比如對PHP,業務將日誌輸出至pipe 再由tail容器讀取pipe 資料輸至標準輸出。再如大資料業務,因為統計日誌與事件日誌是分割開的,一起輸到標準輸出會需要較大改造量,改造時間較長,所以對採集方式進行適配調整,業務直接輸出日誌到rootfs,並由宿主機agent直接採集rootfs約定目錄的日誌資料。

 

總之日誌因為與其它系統以及人員習慣耦合度太高,所以要完成標準化,完成系統解耦和人員依賴改變是比較消耗時間精力的一件事情。

 

2.3.4 基礎建設之彈性調度

 

再來看關於調度的一些建設。容器調度,其實是為瞭解決資源利用率最大化的問題,本質上是一個整數規劃問題。Kubernetes的調度策略源自Borg, 但是為了更好的適應新一代的容器應用,以及各種規模的部署,Kubernetes的調度策略相應做的更加靈活,也更加容易理解和使用。Kubernetes 對Pod的調度通過兩個階段來實現。Predicates階段用於過濾出符合基本要求的節點,Priorities階段用於得到最優節點。不過由於調度是根據分配量來進行而不是實際使用率,所以業務需要準確評估出自己的資源使用量,如果評估不准有可能會造成資源的浪費或者影響業務質量。

圖三

 

比如我們看圖三的實體,左邊為空閑服務器,中間每個Pod 都申請了記憶體的 Request及Limit,調度器根據Request計算,服務器能放得下這個幾個Pod,於是調度至了服務器上面。

 

可以看到實際 Limit 是機器可用資源的兩倍。那麼假如這時Pod1 記憶體使用超過了Request,但是遠沒有達到Limit,這時服務器有可能會出現Swap,而更進一步,機器資源不足後,有可能會出現OOM,記憶體最多且Request/Limit比值最小的那個Pod 中的行程將會被OOM Kill。而這種 Kill 將會造成業務的抖動。同時如果出現大量Swap也會使硬碟出現IO瓶頸,影響同機器上的其實業務。

 

在這樣的場景下,當前kubernetes的調度器實現會面臨一些問題,因為它是根據配額來調度的,而業務用戶不合理的配額需求導致了很多預期之外的場景,所以它無法簡單解決。

 

針對這種場景,我們總結出了以下幾個優化點:

1. 優化業務Request值,根據業務歷史資料調節Request;

2. 增加運行時指標,將節點當前利用率考慮進內;

3. 對於特殊質量保障的業務設置 Guaranteed 級別;

4. 規避Pod記憶體進行swap;

5. 完善IO及網絡等資源的隔離機制。

 

實際上我們在業務的開發測試集群中就遇到了資源緊張同時調度不均衡導致大量OOM的場景,並且一度影響到了業務的接入。本質這還是資源利用率過高時調度的不合理造成。後面經過優化改進才從這種困境中逃離。

 

再看另外一個場景,我們在將集群分配率擠壓到高於50%以上時,很容易出現資源碎片。這時一些資源需求較大的Pod會出現無法調度的情況。在這種場景下則需要通過一些人工干預來進行調度調整。針對這種場景,我們其實是需要通過一些策略調優來優化我們的調度,包括:Reschedule、 MostRequestedPriority、以及優先級來優化集群的調度。

圖四

 

圖四是簡化後一個單資源的示例。實際應用中我們更希望集群有足夠的冗餘度來做資源調度,同時在混合雲場景,我們更希望是儘量使用完部分節點再擴容新的節點。比如圖四所示,希望存在一些大塊的空白節點,儘量減少碎片空間。

 

不過提高器利用率,則會遇到上一場景提到的利用率過高時Pod資源不足的問題。所以必需首先解決好資源使用的預估及調度優化。而且也需要在利用率及冗餘度上做平衡,設定對相應的策略權重,通過一定水位限制確保節點仍有一定冗餘度,如 MostRequestedPriority 的水位限制。水位控制與我們希望的集群利用率直接相關。

圖五

 

前面考慮很多時候是先從單個維度出發來考慮問題,實際場景中我們是多維度的。多維度下會複雜得多,並且碎片的情況更容易出現,在這種情況下很多時候得到的只是一個區域性最優調度而不是全域性最優。

 

有時候為了更接近全域性最優分配需要進行一定重調度。這需要我們自定義控制器做特定的調度策略,同時考慮到大量調動Pod可能會帶來的業務抖動,特別是對於部分優雅關閉沒有做很好的業務,所以需要較嚴謹的保護規則和時機控制。如只在機器資源較為緊張時對優先級較低的服務進行調整。

 

在實際業務容器化過程中,業務對於資源的依賴複雜多樣,根據業務的實際需求,我們進一步引入了IO,網絡,記憶體帶寬等一些資源需求的調度,我們在調度策略中也新增了對應的擴展資源。

 

2.3.5 基礎建設之彈性伸縮

 

調度解決了業務資源合理分配,彈性伸縮組(HPA)則是在提升資源利用率的同時對業務進行資源保障的重要手段。它保證在業務量級上來時能及時的進行擴容,在業務量級下降後又能及時回收資源,HPA 是根據特定的指標以及業務設定的標的值來增加或減少Pod的數量。這部分需要考慮三方面:

1. 伸縮指標的擴展;

2. 錯峰調度的實現;

3. 伸縮時的業務抖動的優化。

 

圖六

 

圖六左側是我們擴展指標的架構圖,從圖中我們可以看到,通過擴展採集模塊及CME構建了擴展指標的採集面,通過預測器輸出預測指標,通過custom-metrics提供HPA所需要的擴展指標。

 

伸縮指標我們主要是擴展出了4個指標,包括QPS,網絡入帶寬,網絡出帶寬,訊息佇列積壓長度。錯峰調度則是通過定時策略實現。 

 

我們這邊有一個雲處理的業務,會對於視頻做H.265轉碼、編碼優化等CPU密集型操作,經常會有突峰的轉碼需求導致該業務需要大量的CPU資源。在這種情況下,HPA的擴縮容有時會跟不上節奏造成業務處理延時變長,主要是伸縮組演算法在計算伸縮值時演算法較為簡單,容易在業務量變小後馬上過量縮量,這就會導致業務量波動時反覆進行伸縮影響業務穩定,所以我們引入了慢縮容機制同時增加收縮滑動視窗以達到消峰的作用。

 

圖七

 

圖七是一個錯峰調度的案例。我們某個處理服務,白天需要大量資源占用,高峰時需要2500核心,而低峰期間所需求的資源則非常少,最小時僅需要60核。而另外一個服務的一些離線計算任務沒有太強時間急迫性要求,可以放在夜間處理,還有一些統計類定時任務也是可以放置在夜間,這樣整體集群資源可以被充分利用。

 

2.3.6 基礎建設之監控

 

監控是我們生產穩定的一個重要的保障手段。在容器化之前,我們運維體系其實已經有一套成熟的監控機制,容器化之後相應的監控並不需要完全推倒重做,部分體系可以復用比如物理機監控,在這之上引入新的容器監控系統。 容器平臺主要監控是幾方面的內容。

 

1. 物理機基礎監控,主要是像硬碟,IO,記憶體,網絡等;

2. 業務指標監控,包括異常監控以及性能監控;

3. 容器行為的監控,監控Pod資源,容器事情等;

4. 容器組件的監控。

 

實際上監控指標是持續在豐富及優化的過程,我們最初只監控了主要的四方面的指標,而最終進行彙總分析時則是從集群,服務,Pod,業務等等視角進行多維度的彙總分析輸出。

 

圖八

 

監控報表對於我們問題分析及排障會提供巨大的便利。圖八是一個CPU監控圖,圖中可以看出有兩個高峰期Pod的CPU是跑滿了。實際對應到的正是線上的某一次業務異常,當時業務的SLA在流量高峰時部分處理延時較高並導致報警。

 

基礎平臺的建設涉及到的還有很多內容,比如多集群的管理、多租戶管理、DNS的優化,鏡像服務的優化,混合雲落地等等,限於篇幅不一一展開。

 

三、業務落地

 

前面講了比較多是基礎平臺構建的一些內容,下麵我們聊一下業務接入的一些事情。我們知道容器化給業務帶來的收益是非常多的,但是我們也是需要考慮可能會給業務帶來的困難。

 

考慮各種遷移和改造的問題,我們需要將平臺更進一步優化,讓業務接入成本儘量低。提供更簡單方便的CI/CD流程,我們需要提供友好的統一的操作界面,提供完整的接入指導,快速排障工具,定期的培訓等。

 

圖九

 

比如我們優化CI/CD流程,整個構建和發佈過程對開發儘量透明,圖九右邊是新的流程,開發提交完代碼之後,Gitlab-CI會自動促發測試及構建過程,並將鏡像推送到倉庫。開發同學僅需要在統一門戶網上面操作對應的版本進行發佈,平臺會自動生成Deployment併發布至相應的集群。

 

再比如,我們提供一個友好的管理平臺,它可以減少業務學習成本以及出錯的概率。同時也提供了靈活的軟體階段定製支持。可以使用簡單的方式定製多個階段,包括:Dev、Test、Pre、 Beta、Canary、Realse … … 

 

綜上,其實我們僅基礎平臺建設是遠不夠,實際業務接入過程中需要考慮很多其它因素。同時業務的需求也不斷地優化我們的平臺架構,最終實現整體的落地。實際上我們做的也確實還遠遠不夠,業務在接入過程還是需要面臨著眾多的問題,所以我們需要在各方面都進一步完善,業務其實一直在教導我們如何做好一個平臺,我們也在不斷地學習吸收。這也是我們不斷提升的源動力之一。

 

四、展望未來

 

未來我們將長期運行多集群混合雲的架構,會逐步引入多家公有雲,優化調度系統,更進一步提高我們的資源利用率,同時也會保持著對ServiceMesh、Serverless、邊緣計算等方向的關註,會結合著業務的需求,更進一步優化容器基礎平臺。

    赞(0)

    分享創造快樂