1. 程式人生 > >為什麼 K8s 在阿里能成功?| 問底中國 IT 技術演進

為什麼 K8s 在阿里能成功?| 問底中國 IT 技術演進

作者:
曾凡鬆 阿里云云原生應用平臺高階技術專家
張振 阿里云云原生應用平臺高階技術專家

導讀:本文描述了阿里巴巴在容器管理領域的技術演進歷程,解讀了為什麼 K8s 最終能夠大獲成功的原因,以及到今年 雙11 阿里巴巴內部的 K8s 應用情況。內容著重描述了阿里巴巴基於 K8s 的雲原生改造實踐過程的三大能力升級,在對應能力升級過程中沉澱的技術解決方案,以及通過這些能力升級所取得的業務價值。

從 2015 年 Google 牽頭成立 CNCF 以來,雲原生技術開始進入公眾的視線並取得快速的發展,到 2018 年包括 Google、AWS、Azure、Alibaba Cloud 等大型雲端計算供應商都加入了 CNCF,雲原生技術也從原來的應用容器化發展出包括容器、Service Mesh、微服務、不可變基礎設施、Serverless、FaaS 等眾多技術方向,CFCF 旗下也囊括了越來多的開源專案。

Kubernetes 作為 CNCF 的第一個專案從誕生之初就就令人矚目,Kubernetes 由 Google 工程師基於 Google 內部多年叢集管理系統 Borg 的設計經驗,結合雲端計算時代的基礎設施特點重新設計而得,旨在幫助企業解決大規模 IT 基礎設施的應用容器編排難題。

Google 在 2014 年 6 月開源 Kubernetes 以後,在 Redhat、Microsoft、Alibaba 等廠商和眾多開源愛好者共同的努力下,成長為如今容器編排領域的事實標準,極大的推動了雲原生領域的發展。

今天為大家分享來自阿里雲的 Kubernetes 大規模實踐經驗,展現阿里雲如何基於 Kubernetes 推動阿里巴巴應用運維技術棧走向雲原生,如何推動 Kubernetes自身的技術進步,充分挖掘雲原生時代的紅利助力阿里巴巴大幅降低 雙11 的 IT 成本。

容器在阿里巴巴的發展歷程

在 2011 年之前,阿里巴巴使用 VM 虛擬化技術將一個物理機切分為 3 個虛擬機器,用於部署淘寶服務,而隨著淘寶業務的飛速發展,基於 VM 的技術方案在靈活性上跟不上業務的步伐。

因此,阿里巴巴在 2011 年就開始探索基於 Linux lxc 的容器技術,用於替代傳統基於 VM 的應用部署方案,到 2013 年,研發了基於 Linux lxc 的 T4 容器和 AI 容器編排系統。這在當時已是非常領先的技術方案,但自己研發的容器技術與基於 VM 時代的運維繫統始終存在一些相容性問題。

在 2013 年隨著 Docker 容器映象方案的出現,阿里巴巴技術人員立即看到了基於容器 + Docker 映象技術的未來,開始大力投入到這一領域的研究當中,到 2015 年 Aliswarm、Zeus、Hippo 等容器編排系統蓬勃發展,各自開疆擴土服務了阿里巴巴經濟體的一部分業務。諸多的系統在解決了業務運維成本的同時,也帶來了一定的重複建設成本,同時也導致了阿里巴巴內部的資源分佈比較分散,無法統一排程多樣的業務型別發揮出不同業務錯峰使用資源的優勢。

正是在這樣的背景下,Sigma 系統應運而出並在 2017 年統一了阿里巴巴的資源池,統一排程阿里巴巴所有的核心業務,並第一次支援將線上服務與離線作業執行在同一個物理機上,大幅提高資料中心的資源利用效率並降低了阿里巴巴的 IT 成本。

隨著雲原生技術的高速發展,阿里巴巴也看到了雲原生技術的潛力,以及未來企業 IT 全面上雲的必然趨勢,從 2018 年開始轉型到 Kubernetes 技術,通過 Kubernetes 擴充套件能力將 Sigma 積累多年的排程能力通過 Kubernetes 的方式提供出來。

在 2019 年阿里巴巴宣佈全面上雲,阿里巴巴開始全面擁抱 Kubernetes,並將 Sigma 排程系統全面的遷移到基於 Kubernetes 的排程系統,該系統也正是支援了今年最大規模 雙11 電商交易系統的底層基礎設施,穩定的支援了大促前後數百次的應用變更並提供極速的應用釋出與擴容體驗,為 雙11 的順暢的購物體驗立下悍馬功勞。

為什麼 K8s 在阿里能成功

Kubernetes 在眾多的技術中脫穎而出,概括起來可以歸納為以下三個方面。

  • 首先是其在誕生之初就為雲時代而生,擁有超前的眼光和先進的設計理念,加之最初由天才的 Google 工程師基於其內部 Borg 多年的經驗設計而來,誕生之後就飛速發展;

後來隨著 RedHat、IBM、微軟、Vmware、阿里雲等來自全球的優秀工程師大力投入,打造了繁榮的社群和生態系統,成為企業容器編排系統的首選。

阿里巴巴經濟體擁有眾多的子公司,這些子公司在加入阿里巴巴大家庭時或多或少都會有一套自有的容器編排系統,在融入阿里巴巴的基礎設施過程中,Kubernetes 是最標準也最容易被經濟體內外的客戶所接受的一個方案。

  • 其次,Kubernetes 倡導的申明式 API 的設計理念,也貼合了阿里巴巴在應用運維領域的經驗與教訓;

傳統的運維繫統通常是基於過程式的設計,而過程式的運維繫統在較長的系統呼叫鏈路下,通常會出現因異常處理複雜而導致的系統效率低下。

在大規模應用運維繫統中複雜又繁多的狀態處理也是一個大難題,基於過程式的系統設計很難確保系統的一致性,針對這些邊界異常的處理通常又導致運維繫統變得非常複雜,最終為異常兜底的只能依賴運維人員的人工操作。基本上可以認為基於過程式的運維繫統難以應對超大規模的應用管理,而 Kubernetes 提供的申明式 API 卻是解決應用運維狀態輪轉的一劑良藥,是提高運維技術棧整體鏈路效率的最佳實踐原則。

  • 第三,Kubernetes 模組化、可擴充套件的架構設計,滿足阿里巴巴的定製化改造以支援眾多業務運維場景的需求。

在阿里巴巴內部,即有大量的無狀態核心電商系統,也有大量的快取、訊息佇列等中介軟體有狀態系統,也包括大量帶有倒排索引資料的檢索系統,還有大量的 AI 計算任務,不用的應用型別對底層容器管理平臺的要求也有所不同。

因此,一個模組化方便遷入自定義應用管理策略、易於擴充套件排程模型的設計顯得至關重要,是能夠服務阿里內部眾多應用形態、提供統一容器管理基礎設施的關鍵,Kubernetes 基本上提供了這些關鍵基礎能力,雖然在實際應用過程中仍然會遇到非常多的實際問題。

阿里巴巴的 K8s 應用情況

在 2019 年 雙11,阿里巴巴內部核心業務主要執行在神龍、ECS、ECI 三種資源型別的基礎設施之上,而這些不同型別的基礎設施資源均通過 Kubernetes 統一管理,以容器的形態提供給上層應用使用,完成了核心業務的支撐。

有別於以往的 雙11,今年核心電商業務應用大規模部署在神龍裸金屬伺服器上。如果有關注過阿里雲技術的發展,應該不會對神龍伺服器感到陌生,它是阿里雲自主研發的新一代雲伺服器,通過“軟硬一體”的技術開創性的將雲端計算的虛擬化開銷分攤到低價硬體板卡上,徹底的釋放 CPU 的計算能力,第一次真正的做到了雲端計算虛擬化的“零”開銷。

容器也是一種輕量級的虛擬化方案,神龍+容器+Kubernetes 的結合正是雲原生時代的最佳拍檔,支撐了今年最大規模的 雙11,也將是未來的主流技術形態。

阿里巴巴也在繼續使用 ECS 作為 Kubernetes 的底層資源供給,ECS 作為傳統的雲端計算虛擬化方式支撐了部門集團內部業務,同時結合靈活性更好的彈性容器例項 ECI 用於應對業務突發的流量峰值,為業務帶來了雲端計算的彈性價值,真正實現了按需申請、釋放資源的極致彈效能力,降低了業務需要提前規劃資源所帶來的成本。

這些分佈在海內外的數十萬個節點的資源,被數十個 Kubernetes 叢集託管,執行著阿里巴巴上萬個應用,共計超過百萬的容器,其規模之大前所未有。在今年的 雙11 中,阿里巴巴內部最大的 Kubernetes 叢集規模達到萬級;當然這並不是Kubernetes 的技術極限,而是我們考慮資料中心資源效率與基礎設施容災能力之間所取的平衡,在將來如果有需要這個數字也可能變得更大。

基於 K8s 的雲原生改造實踐

Kubernetes 作為雲原生技術的代表,已經成為了容器編排領域的事實標準,阿里巴巴自 2017 年開始探索,到 2018 年確認技術轉型到使用 Kubernetes 來管理生產的容器。

在落地 K8s 的過程中,我們主要面臨著兩大難題:

  • 其一,上層多樣的業務運維平臺;

為了支撐阿里巴巴內部多樣的業務形態,在內部發展出來了多個典型的業務運維平臺,每一個運維平臺的基礎設施、流程控制、應用釋出策或多或少都會存在一些差別,缺少一個統一的應用運維標準。在排程與叢集管理的技術演進過程中,如何牽引整個運維體系升級的同時並保持多個業務的平臺及其上業務的穩定性,這是一個巨大的工程。

  • 其二,隨著阿里巴巴經濟體全面上雲戰略的實施,整個底層基礎設施包括儲存、網路、基礎運維軟體的技術演進也非常迅速。排程與叢集管理需要在支援好基礎設施快速演進的同時,迭代自身的技術架構,並同時保證業務的穩定性。

基於 K8s 的雲原生技術改造正是在這樣的背景下誕生,發展到 2019 年 Kubernetes 在內部已大規模部署,所有的核心業務也都已經執行在 K8s 叢集管理中。但在這幾年的實踐過程中,有一個問題始終縈繞在工程師頭腦中,在阿里巴巴這麼大體量、這麼複雜的業務下,遺留了大量傳統的運維習慣以及支撐這些習慣的運維體系,在這樣的背景下落地Kubernetes (內部一個形象的比喻叫做給高速飛行的飛機更換髮動機)到底是在堅持什麼,哪些地方可以妥協,哪些地方必須改變?

這一章節, 將為大家分享我們這幾年對這個問題的一些思考,特別是經過了今年的 雙11 考驗後,這個問題的答案基本上得到了工程師群裡的集體認可。

負責頂層設計的架構師終於可以喘一口氣:擁抱 Kubernetes 本身並不是目的,而通過擁抱 Kubernetes 翹動業務的雲原生改造,通過 Kubernetes 的能力治理傳統運維體系下的沉痾頑疾,真正釋放雲的彈效能力,為業務的應用交付解綁提速,才是這次技術變革的最大價值所在。

面向終態升級

在傳統的運維體系下,應用的變更都是運維通過建立操作工單發起工作流,繼而對容器平臺發起一個個的變更來完成的。比如升級一個服務下的 3000 個例項,工單會被提前計算並生成出多個批次的子任務,並逐個的呼叫容器平臺的介面完成變更應用的變更。

為了確保應用釋出工單的順利執行,在每一個子工單內部,每一個容器的釋出也是一個工作流,包括監控開管、映象拉取、容器啟停、服務註冊、配置推送等等,如果一切正常該流程會按預期有序的進行。

在大規模應用釋出的場景中,諸如宿主機宕機、磁碟異常、IO 異常、網路異常、核心異常等幾乎是必然存在的,如果釋出流程中的某一個步驟出現了錯誤,通常情況下需要運維平臺按照一定的策略來重試,直到超過該批次的超時閾值,這將會帶來三個問題,下面逐一展開。

  • 其一是重試帶來的效率問題;

每一個子任務的執行時間將被任務內的長尾釋出所拖累,假設將 3000 個容器分為 30 批次每批 100 個(僅為示意並非最佳實踐),每一批次內出現一個容器釋出異常時,該批次的釋出時間將被重試拉長。

  • 其二是失敗帶來的一致性問題;

對於釋出異常的容器,在工單結束之後通常只能通過外圍鏈路巡檢的方式來治理,而事實上通常的巡檢是依賴運維人員手工操作的,帶來了極大的人工成本和不確定性。

  • 第三是應用併發變更衝突問題。

如果在應用釋出的過程中,同時提交了應用擴容的請求,由 3000 擴容到 3200 個例項,擴容的 200 個例項應該採用舊版本還是新版本,採用舊版本擴容將面臨的問題是誰最終負責這 200 箇舊版本例項的升級,採用新版本擴容將面臨的是穩定性問題,如果新版本存在問題新擴容的例項將產生較大的影響。

正是因為這些複雜的問題導致多數運維繫統拒絕了併發的應用變更,導致併發操作效率非常底下。

K8s 為應用管理所提供的申明式 API 的設計理念同時解決了解決了這三個問題,使用者只需要描述期望的最終狀態以及達成期望狀態的過程中需要遵守的限制條件,達成終態所需要執行的複雜操作全部交由 K8s 的來完成。

在應用釋出過程中,通常情況下 K8s 通過控制併發度及最大不可用例項數來約束應用釋出對服務的影響,對於釋出過程中失敗的例項通過最終一致的方式在系統內部解決。正是基於這一設計,使用者發起服務變更時只是更新了應用的預期狀態,並不需要等待任何任務的結束,一併解決了應用釋出效率、線上配置的一致性和併發變更衝突效率的問題。

基於面向終態的理念管理應用,我們開發 Advanced StatefulSet 的應用管理工作模型,顧名思義它基於 Kubernetes 官方的 StatefulSet 擴充套件而來。

在官方的工作模型中,應用通過滾動的方式完成版本升級,也就是建立新的 Pod 同時刪除舊版本的 Pod,直到整個應用切換為新的版本。

這種方式簡單直接,但存在效率的問題,比如所有應用的 Pod 需要重新的排程,這在大規模應用釋出場景將給排程器帶來很大的壓力;同時,因為新版本 Pod 為全新建立,需要重新分配 IP 並掛載遠端卷,這對雲端計算網路、儲存基礎設施也將是很大的挑戰;再者,因為容器是被全新排程出來的,在機器上需要重新下載新的應用映象,這將大幅降低應用釋出的效率。

為了提高應用釋出的效率和資源的確定性,開發了這一工作負載模型,它支援原地釋出應用,應用釋出前後應用所在的位置保持不變,同時支援了併發更新、容錯暫停等豐富的釋出策略,高效的滿足了阿里巴巴內部電商應用的釋出需求。因為應用釋出前後位置不變,因此我們可以在灰度釋出的過程中預先下載並解壓即將要釋出的容器映象,從而大幅提高應用釋出的效率。

在面向終態的應用管理中,複雜的運維過程被 K8s 內部所實現,K8s根據使用者的期望及現狀計算出需要執行的動作,並逐步的變更直到終態。面向終態帶來了卓越的運維效率提升,但同時也為系統工程架構提出了更高的要求。

我們知道在 K8s 內部是一個模組化、分散式的系統,通往終態的運維決策分散在內部的多個模組中,這些模組都有可能對容器發起一些運維動作,比如控制器、運維 Operator、重排程器甚至是 kubelet。在高度自動化的系統中,一旦出現預期外的異常,其殺傷力可能會對其上執行的業務造成災難性的後果,加之 K8s 中決策分散在眾多的模組中,所帶來的問題是系統風險的控制變得更加困難,對這個系統設計的質量有很高的要求。

為了控制整個系統的風險,如上圖所示,我們在 K8s 系統的關鍵位置對關鍵行為行為進行了埋點,針對性的制定了限流及熔斷的策略,使得整個系統即使在出現極端錯誤的場景下,也能夠最大化的保護其上執行的業務。

自愈能力升級

在阿里巴巴傳統的運維體系下,容器平臺僅生產資源,應用的啟動以及服務發現是在容器啟動後由運維平臺系統來完成的,這種分層的方法給了運維繫統最大的自由度,也在容器化後促進了阿里巴巴的容器生態繁榮。

但是這種方式有一個嚴重的問題,因為容器排程平臺無法自主地去觸發容器的擴縮容,而需要和一個個運維平臺來做複雜的聯動,上層運維繫統也因為需要感知到底層基礎設施的資訊,從而導致進行了很多重複建設的工作。

在工程實踐上,這些複雜性使得即使經過了細心的設計與大量的投入其工作效率也不高,嚴重妨礙宿主機發生故障、重啟,容器中程序發生崩潰、卡住等異常時的自愈修復效率,同時也讓應用彈性伸縮的實現變得非常的複雜和低效。

我們解決這一問題的思路是通過 K8s 中提供了容器命令以及生命週期鉤子,將啟動應用以及檢查應用啟動狀態這一正個流程內建到 pod 中,包括與監控、VIP、服務中心、配置中心等基礎設施的互動,通過 Pod 實現容器與應用例項的生命週期統一。

容器平臺不再是僅生產資源,而是交付可以直接為業務使用的服務,從而使得可以在 K8s 系統內部完成故障自愈閉環,極大地簡化了應用故障自愈以及自動彈性擴縮容能力的建設。提高系統自愈的效率,實際上也是幫助業務獲得更好的執行時穩定性和應用運維效率。

在完成了容器與應用例項的生命週期統一之後,我們正在打造一個統一控制器程式設計框架:Operator Platform。

Operator Platform 由中心的控制組件與一個 sidecar 框架容器以及客戶端程式碼組成,通過對通用的控制器能力的抽象,包括:事件通知、灰度管理、版本控制、快取、命令管道等能力的封裝整合,支援多語言編寫operator,使得開發者無需要理解 K8s 的眾多的介面細節及錯誤處理,從而降低了基於 operator 的自動化運維能力的開發難度,使得越來越多的運維能力通過operator 的方式沉澱到 K8s 生態體系中來,讓更多的有狀態應用能夠自動化地部署,提高整個運維體系的運轉效率。

通過這種方式,構建了整個機器故障自愈的體系,高效的串聯起包括機器鎖定、應用驅逐、機器線下、異常修復等流程,確保了叢集宿主機的線上率以及業務的可用性。未來,我們期望通過將 operator 編寫標準化的方式去推動多個運維平臺的基礎運維能力能夠被最大化的複用,減少重複建設的成本。

不可變基礎設施

第三個重要的能力升級是對不可變基礎設施的升級。

我知道 Docker 提供了一種統一的應用交付的形式,通過把應用的二進位制、配置、依賴檔案在構建過程中打到一個映象中,從而確保了應用被一次構建出來之後在多個環境中交付的確定性,避免了環境不一致帶來的諸多問題。

而 K8s 更進一步,通過將不同用途的 Docker 容器組裝在一起成為一個 pod,通常情況下在升級 pod 時需要整個的銷燬重建,從而確保應用映象、卷、資源規格的一致性。在落地 K8s 的過程中,堅持了不可變基礎設施的設計理念,通過 K8s pod 將原本執行在一個富容器中的應用與運維基礎元件分離到不同的容器中,並通過升級容器映象的方式完成應用的升級。

這裡有一個概念需要澄清,並不是使用 K8s 就等於踐行了不可變基礎設施的理念,而是必須要確保應用運維通過映象升級而不是動態釋出檔案的方式完成,而事實上因為一些歷史原因,這一用法在行業中普遍存在。

當然,與 K8s 有所不同的是,我們並未強制堅持 pod 的不可變而是取了一個折中的方式,即堅持容器不可變。

原因是我們將應用容器與運維基礎設施容器分離之後,運維容器作為應用容器的 sidecar 容器,其擁有著不同的版本迭代策略。應用容器由應用運維人員負責釋出,其策略因應用的不同而不同,比如電商應用使用 StatefulSet 而本地生活使用 Deployment 來管理應用,而基礎設施容器則由基礎設施運維負責,其釋出策略與應用本身也存在一些差別。

為了解決這個問題,我們開發了一個叫做 SidecarSet 的基礎設施容器管理模型,它使用同一個集合統一管理多個應用的運維容器,將基礎設施的變更與應用容器的變更進行分離,從而支援基礎設施的快速演進。將基礎設施容器定義從應用 pod 中抽離出來後,應用管理員不再關心基礎容器的啟動引數,而是交由基礎設施運維人員通過配置 SidecarSet 自動為應用注入運維容器,簡化了應用運維的複雜性。

可以看到,這種關注點分離的設計,同時簡化了應用運維與基礎設施運維的負擔。

總結與展望

阿里雲通過落地 K8s 推動阿里巴巴運維體系走向雲原生,在應用容器釋出管理效率、服務穩定性以及企業 IT 成本方面取得了很大的突破。

我們一直在思考,通過什麼樣的方式能夠將阿里巴巴的應用管理經驗輸出到更多的場景,解決更多客戶面臨的應用管理難題,在企業全面雲化這樣的趨勢下,如何解決企業在公有云、私有云、混合雲以及多雲場景的應用管理複雜性。

正是在這樣的背景下,阿里雲與微軟在 2019 年 11 月聯合推出了一款用於構建和交付雲原生應用的標準規範,即 Open Application Model(簡稱 OAM)。

OAM 提出了一種通用的模型,讓各平臺可以在統一的高層抽象上透出應用部署和運維能力,解決跨平臺的應用交付問題。同時,OAM 以標準化的方式溝通和連線應用開發者、運維人員、應用基礎設施,讓雲原生應用交付和管理流程更加連貫、一致。

通過應用交付標準化的方法,我們期望未來在雲上部署一個應用,就像手機在應用商店中安裝一個淘寶一樣便捷與高效。

最後,本文提到的阿里巴巴在雲原生改造上完成的相關能力升級,我們都已經或者即將開源到OpenKruise 專案中,歡迎大家關注與交流!

參與方式:

  • 釘釘掃碼進入 OAM 專案中文討論群


(釘釘掃碼加入交流群)

  • 通過 Gitter 直接參與討論
  • OAM 開源實現地址
  • star 一下

雲原生實踐峰會即將開幕

“阿里巴巴雲原生關注微服務、Serverless、容器、Service Mesh 等技術領域、聚焦雲原生流行技術趨勢、雲原生大規模的落地實踐,做最懂雲原生開發者的技術圈。”