亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

k8s如何解決節點狀態為 NotReady的部署問題

發布時間:2020-11-20 16:34:21 來源:億速云 閱讀:2813 作者:小新 欄目:系統運維

這篇文章給大家分享的是有關k8s如何解決節點狀態為 NotReady的部署問題的內容。小編覺得挺實用的,因此分享給大家做個參考。一起跟隨小編過來看看吧。

問題

使用kubectl get nodes查看已加入的節點時,出現了Status為NotReady的情況。

root@master1:~# kubectl get nodes
NAME      STATUS      ROLES    AGE    VERSION
master1   NotReady    master   152m   v1.18.1
worker1   NotReady       94m    v1.18.1

這種情況是因為有某些關鍵的 pod 沒有運行起來,首先使用如下命令來看一下kube-system的 pod 狀態:

kubectl get pod -n kube-system
NAME                              READY   STATUS             RESTARTS   AGE
coredns-bccdc95cf-792px           1/1     Pending            0          3h11m
coredns-bccdc95cf-bc76j           1/1     Pending            0          3h11m
etcd-master1                      1/1     Running            2          3h10m
kube-apiserver-master1            1/1     Running            2          3h11m
kube-controller-manager-master1   1/1     Running            2          3h10m
kube-flannel-ds-amd64-9trbq       0/1     ImagePullBackoff   0          133m
kube-flannel-ds-amd64-btt74       0/1     ImagePullBackoff   0          174m
kube-proxy-27zfk                  1/1     Pending            2          3h11m
kube-proxy-lx4gk                  1/1     Pending            0          133m
kube-scheduler-master1            1/1     Running            2          3h11m

如上,可以看到 pod kube-flannel 的狀態是ImagePullBackoff,意思是鏡像拉取失敗了,所以我們需要手動去拉取這個鏡像。這里可以看到某些 pod 運行了兩個副本是因為我有兩個節點存在了。

你也可以通過kubectl describe pod -n kube-system <服務名>來查看某個服務的詳細情況,如果 pod 存在問題的話,你在使用該命令后在輸出內容的最下面看到一個[Event]條目,如下:

root@master1:~# kubectl describe pod kube-flannel-ds-amd64-9trbq -n kube-system

...

Events:
  Type     Reason                  Age                 From              Message
  ----     ------                  ----                ----              -------
  Normal   Killing                 29m                 kubelet, worker1  Stopping container kube-flannel
  Warning  FailedCreatePodSandBox  27m (x12 over 29m)  kubelet, worker1  Failed create pod sandbox: rpc error: code = Unknown desc = failed to create a sandbox for pod "kube-flannel-ds-amd64-9trbq": Error response from daemon: cgroup-parent for systemd cgroup should be a valid slice named as "xxx.slice"
  Normal   SandboxChanged          19m (x48 over 29m)  kubelet, worker1  Pod sandbox changed, it will be killed and re-created.
  Normal   Pulling                 42s                 kubelet, worker1  Pulling image "quay.io/coreos/flannel:v0.11.0-amd64"

手動拉取鏡像

flannel的鏡像可以使用如下命令拉到,如果你是其他鏡像沒拉到的話,百度一下就可以找到國內的鏡像源地址了,這里記得把最后面的版本號修改成你自己的版本,具體的版本號可以用上面說的kubectl describe命令看到:

拉去鏡像:

docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64

等鏡像拉取完了之后需要把鏡像名改一下,改成 k8s 沒有拉到的那個鏡像名稱,我這里貼的鏡像名和版本和你的不一定一樣,注意修改:

docker tag quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64

修改完了之后過幾分鐘 k8s 會自動重試,等一下就可以發現不僅flannel正常了,其他的 pod 狀態也都變成了Running,這時再看 node 狀態就可以發現問題解決了:

[kubeadm@server1 ~]$ kubectl get nodes
NAME      STATUS   ROLES    AGE    VERSION
server1   Ready    master   150m   v1.18.1
server2   Ready       150m   v1.18.1
server3   Ready       150m   v1.18.1
[kubeadm@server1 ~]$ 

k8s如何解決節點狀態為 NotReady的部署問題

感謝各位的閱讀!關于k8s如何解決節點狀態為 NotReady的部署問題就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

山东省| 凯里市| 南汇区| 扎囊县| 承德县| 上杭县| 宝丰县| 弋阳县| 尼勒克县| 内丘县| 定襄县| 濮阳县| 公主岭市| 罗平县| 广灵县| 璧山县| 达尔| 土默特左旗| 修文县| 建德市| 政和县| 浦北县| 周至县| 綦江县| 广州市| 工布江达县| 昌江| 成安县| 扎兰屯市| 商都县| 凉山| 雷波县| 余江县| 进贤县| 封丘县| 鄂尔多斯市| 冀州市| 昆明市| 博罗县| 海宁市| 伊宁市|