1. 程式人生 > 實用技巧 >Kubernetes K8S之CPU和記憶體資源限制詳解

Kubernetes K8S之CPU和記憶體資源限制詳解

Kubernetes K8S之CPU和記憶體資源限制詳解

Pod資源限制

備註:CPU單位換算:100m CPU,100 milliCPU 和 0.1 CPU 都相同;精度不能超過 1m。1000m CPU = 1 CPU。

官網地址:

1 https://kubernetes.io/zh/docs/tasks/configure-pod-container/assign-cpu-resource/
2 https://kubernetes.io/zh/docs/tasks/configure-pod-container/assign-memory-resource/

Kubernetes對資源的限制實際上是通過cgroup來控制的

,cgroup是容器的一組用來控制核心如何執行程序的相關屬性集合。針對記憶體、CPU和各種裝置都有對應的cgroup。

預設情況下,Pod執行沒有CPU和記憶體的限額。這意味著系統中的任何Pod將能夠像執行Pod所在節點機器一樣,可以消耗足夠多的CPU和記憶體。一般會針對某些應用的Pod資源進行資源限制,這個資源限制是通過resources的requests【要分配的資源】和limits【最大使用資源】來實現的

CPU資源限制示例
 1 # cat cpu-request-limit.yaml
 2 apiVersion: v1
 3 kind: Pod
 4 metadata:
 5   name: cpu-demo
6 namespace: cpu-example 7 spec: 8 containers: 9 - name: cpu-demo-ctr 10 image: vish/stress 11 resources: 12 limits: 13 cpu: "1" 14 requests: 15 cpu: "0.5" 16 args: 17 - -cpus 18 - "2"

配置檔案的 args 部分提供了容器啟動時的引數。-cpus “2”引數告訴容器嘗試使用 2 個 CPU。

記憶體資源限制示例
 1 # memory-request-limit.yaml
 2 apiVersion: v1
 3 kind: Pod
 4 metadata:
 5   name: memory-demo
 6   namespace: mem-example
 7 spec:
 8   containers:
 9   - name: memory-demo-ctr
10     image: polinux/stress
11     resources:
12       limits:
13         memory: "200Mi"
14       requests:
15         memory: "100Mi"
16     command: ["stress"]
17     args: ["--vm", "1", "--vm-bytes", "150M", "--vm-hang", "1"]

配置檔案的 args 部分提供了容器啟動時的引數。"--vm-bytes", "150M"引數告知容器嘗試分配 150 MiB 記憶體。不允許args中的啟動記憶體大於limits限制記憶體

namespace資源限制

備註:CPU單位換算:100m CPU,100 milliCPU 和 0.1 CPU 都相同;精度不能超過 1m。1000m CPU = 1 CPU。

官網地址:

https://kubernetes.io/zh/docs/tasks/administer-cluster/manage-resources/

為名稱空間配置記憶體和 CPU 配額

怎麼為名稱空間設定容器可用的記憶體和 CPU 總量。你可以通過 ResourceQuota 物件設定配額,使用 ResourceQuota限制名稱空間中所有容器的記憶體請求總量、記憶體限制總量、CPU 請求總量和CPU 限制總量

如果你想對單個容器而不是所有容器進行限制,就請使用 LimitRange。

示例:

 1 # cat quota-mem-cpu.yaml
 2 apiVersion: v1
 3 kind: ResourceQuota
 4 metadata:
 5   name: mem-cpu-demo
 6 spec:
 7   hard:
 8     requests.cpu: "1"
 9     requests.memory: 1Gi
10     limits.cpu: "2"
11     limits.memory: 2Gi

應用如下【名稱空間quota-mem-cpu-example已提前建立完畢】:

kubectl create -f quota-mem-cpu.yaml --namespace=quota-mem-cpu-example

檢視 ResourceQuota 詳情:

kubectl get resourcequota mem-cpu-demo --namespace=quota-mem-cpu-example --output=yaml

輸出部分結果如下:

 1 spec:
 2   hard:
 3     limits.cpu: "2"
 4     limits.memory: 2Gi
 5     requests.cpu: "1"
 6     requests.memory: 1Gi
 7 status:
 8   hard:
 9     limits.cpu: "2"
10     limits.memory: 2Gi
11     requests.cpu: "1"
12     requests.memory: 1Gi
13   used:
14     limits.cpu: "0"
15     limits.memory: "0"
16     requests.cpu: "0"
17     requests.memory: "0"

ResourceQuota 在 quota-mem-cpu-example 名稱空間中設定瞭如下要求:

  • 每個容器必須有記憶體請求和限制,以及 CPU 請求和限制。
  • 所有容器的記憶體請求總和不能超過1 GiB。
  • 所有容器的記憶體限制總和不能超過2 GiB。
  • 所有容器的 CPU 請求總和不能超過1 cpu。
  • 所有容器的 CPU 限制總和不能超過2 cpu。

為名稱空間配置預設的記憶體請求和限制

示例:

 1 # cat memory-defaults.yaml
 2 apiVersion: v1
 3 kind: LimitRange
 4 metadata:
 5   name: mem-limit-range
 6 spec:
 7   limits:
 8   - default:
 9       memory: 512Mi
10     defaultRequest:
11       memory: 256Mi
12     type: Container

default類似於之前的limit;defaultRequest類似於之前的request。

應用如下:

kubectl create -f memory-defaults.yaml --namespace=default-mem-example

名稱空間default-mem-example已提前建立完畢

現在,如果在 default-mem-example 名稱空間建立容器,並且該容器沒有宣告自己的記憶體請求和限制值,那麼它將被指定一個預設的記憶體請求256 MiB和一個預設的記憶體限制512 Mib。

為名稱空間配置預設的CPU請求和限制

示例:

 1 # cpu-defaults.yaml
 2 apiVersion: v1
 3 kind: LimitRange
 4 metadata:
 5   name: cpu-limit-range
 6 spec:
 7   limits:
 8   - default:
 9       cpu: 1
10     defaultRequest:
11       cpu: 0.5
12     type: Container

應用如下:

kubectl create -f cpu-defaults.yaml --namespace=default-cpu-example

其中default-cpu-example名稱空間已被提前建立

現在如果在 default-cpu-example 名稱空間建立一個容器,該容器沒有宣告自己的 CPU 請求和限制時,那麼將會給它指定預設的 CPU 請求0.5和預設的 CPU 限制值1。

配置名稱空間的最小和最大記憶體約束

示例:

 1 # cat memory-constraints.yaml
 2 apiVersion: v1
 3 kind: LimitRange
 4 metadata:
 5   name: mem-min-max-demo-lr
 6 spec:
 7   limits:
 8   - max:
 9       memory: 1Gi
10     min:
11       memory: 500Mi
12     type: Container

應用如下:

kubectl create -f memory-constraints.yaml --namespace=constraints-mem-example

其中constraints-mem-example名稱空間已被提前建立

檢視 LimitRange 的詳情:

kubectl get limitrange mem-min-max-demo-lr --namespace=constraints-mem-example --output=yaml

輸出顯示預期的最小和最大記憶體約束。但請注意,即使您沒有在 LimitRange 的配置檔案中指定預設值,預設值也會被自動建立

 1 limits:
 2 - default:
 3     memory: 1Gi
 4   defaultRequest:
 5     memory: 1Gi
 6   max:
 7     memory: 1Gi
 8   min:
 9     memory: 500Mi
10   type: Container

現在,只要在 constraints-mem-example 名稱空間中建立容器,Kubernetes 就會執行下面的步驟:

  • 如果 Container 未指定自己的記憶體請求和限制,將為它指定預設的記憶體請求和限制。
  • 驗證 Container 的記憶體請求是否大於或等於500 MiB【超出範圍容器建立失敗】。
  • 驗證 Container 的記憶體限制是否小於或等於1 GiB【超出範圍容器建立失敗】。

配置名稱空間的最小和最大CPU約束

示例:

 1 # cpu-constraints.yaml
 2 apiVersion: v1
 3 kind: LimitRange
 4 metadata:
 5   name: cpu-min-max-demo-lr
 6 spec:
 7   limits:
 8   - max:
 9       cpu: "800m"
10     min:
11       cpu: "200m"
12     type: Container

應用如下:

kubectl create -f cpu-constraints.yaml --namespace=constraints-cpu-example

其中constraints-cpu-example名稱空間已被提前建立

檢視 LimitRange 詳情:

kubectl get limitrange cpu-min-max-demo-lr --output=yaml --namespace=constraints-cpu-example

輸出結果顯示 CPU 的最小和最大限制符合預期。但需要注意的是,儘管你在 LimitRange 的配置檔案中你沒有宣告預設值,預設值也會被自動建立

 1 limits:
 2 - default:
 3     cpu: 800m
 4   defaultRequest:
 5     cpu: 800m
 6   max:
 7     cpu: 800m
 8   min:
 9     cpu: 200m
10   type: Container

現在不管什麼時候在 constraints-cpu-example 名稱空間中建立容器,Kubernetes 都會執行下面這些步驟:

  • 如果容器沒有宣告自己的 CPU 請求和限制,將為容器指定預設 CPU 請求和限制。
  • 核查容器宣告的 CPU 請求確保其大於或者等於200 millicpu。
  • 核查容器宣告的 CPU 限制確保其小於或者等於800 millicpu。

配置名稱空間下pod總數

示例:

1 # cat quota-pod.yaml
2 apiVersion: v1
3 kind: ResourceQuota
4 metadata:
5   name: pod-demo
6 spec:
7   hard:
8     pods: "2"

應用如下【名稱空間quota-pod-example已提前建立完畢】:

kubectl apply -f quota-pod.yaml --namespace=quota-pod-example

檢視資源配額的詳細資訊:

kubectl get resourcequota pod-demo --namespace=quota-pod-example --output=yaml

從輸出的資訊我們可以看到,該名稱空間下pod的配額是2個,目前建立的pods數為0,配額使用率為0。

1 spec:
2   hard:
3     pods: "2"
4 status:
5   hard:
6     pods: "2"
7   used:
8     pods: "0"

相關閱讀

1、官網:Pod的CPU資源分配限制

2、官網:Pod的記憶體資源分配限制

3、官網:管理記憶體、CPU 和 API 資源

完畢!


———END———
如果覺得不錯就關注下唄 (-^O^-) !