亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

k8s運維06-kubectl delete node的過程是怎么樣的

發布時間:2021-10-19 20:40:39 來源:億速云 閱讀:444 作者:柒染 欄目:大數據

這期內容當中小編將會給大家帶來有關k8s運維06-kubectl delete node的過程是怎么樣的,文章內容豐富且以專業的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。

一. 本節記錄kubectl delete node的執行過程

delete是一個比較粗暴的命令,它會將被刪node上的pod直接驅逐,由其他node創建(針對replicaset),然后將被刪節點從master管理范圍內移除,master對其失去管理控制,若想使node重歸麾下,必須在node節點重啟kubelet


提前查看所有node
  • 以刪除10.5.0.45為例,看到節點存在

[root@k8smaster163075 ~]
$kubectl get nodes
NAME        STATUS                     ROLES    AGE   VERSION
10.5.0.44   Ready,SchedulingDisabled   <none>   41h   v1.11.3
10.5.0.45   Ready                      <none>   41h   v1.11.3
10.5.0.46   Ready                      <none>   41h   v1.11.3
10.5.0.47   Ready                      <none>   41h   v1.11.3
10.5.0.48   Ready                      <none>   41h   v1.11.3
10.5.0.49   Ready                      <none>   41h   v1.11.3
查看所有pod
  • 10.5.0.45節點有4個pod

image.png

執行 kubectl delete node 10.5.0.45
[root@k8smaster163075 ~]
$kubectl get pods -n test-kubeasy-k8s -o wide | grep 10.5.0.45
atlas-uat-deployment-5b65898567-85jpb   1/1     Running   0          14m   10.5.45.104   10.5.0.45   <none>
atlas-uat-deployment-5b65898567-8l7gm   1/1     Running   0          41h   10.5.45.102   10.5.0.45   <none>
atlas-uat-deployment-5b65898567-cqzj7   1/1     Running   0          41h   10.5.45.103   10.5.0.45   <none>
atlas-uat-deployment-5b65898567-lzp7k   1/1     Running   0          41h   10.5.45.101   10.5.0.45   <none>

[root@k8smaster163075 ~]
$kubectl delete node 10.5.0.45
node "10.5.0.45" deleted
重新查看pod,看到新建了4臺pod

image.png

master查看所有node
  • node已經不在master的控制范圍

  • 對比kubectl drain/cordon node,

[root@k8smaster163075 ~]
$kubectl get nodes
NAME        STATUS                     ROLES    AGE   VERSION
10.5.0.44   Ready,SchedulingDisabled   <none>   41h   v1.11.3
10.5.0.46   Ready                      <none>   41h   v1.11.3
10.5.0.47   Ready                      <none>   41h   v1.11.3
10.5.0.48   Ready                      <none>   41h   v1.11.3
10.5.0.49   Ready                      <none>   41h   v1.11.3
ssh 到 10.5.0.45 機器
  • docker ps查看容器 已為空

[root@docker000045.ppdgdsl.com ~]
$docker ps
CONTAINER ID        IMAGE               COMMAND             CREATED             STATUS              PORTS               NAMES
delete節點的恢復
  • 重啟節點kubelet

  • 進入master查看node,節點10.5.0.45出現,AGE=2m16s,剛生效

[root@k8smaster163075 ~]
$kubectl get nodes
NAME        STATUS                     ROLES    AGE     VERSION
10.5.0.44   Ready,SchedulingDisabled   <none>   42h     v1.11.3
10.5.0.45   Ready                      <none>   2m16s   v1.11.3
10.5.0.46   Ready                      <none>   42h     v1.11.3
10.5.0.47   Ready                      <none>   42h     v1.11.3
10.5.0.48   Ready                      <none>   42h     v1.11.3
10.5.0.49   Ready                      <none>   42h     v1.11.3

二. cordon,drain,delete node區別

此三個命令都會使node停止被調度,后期創建的pod不會繼續被調度到該節點上但操作的暴力程度不一


cordon 停止調度
  • 影響最小,只會將node調為SchedulingDisabled

  • 之后再發創建pod,不會被調度到該節點

  • 舊有的pod不會受到影響,仍正常對外提供服務

  • 恢復調度

kubectl uncordon node_name
drain 驅逐節點
  • 首先,驅逐node上的pod,其他節點重新創建

  • 接著,將節點調為** SchedulingDisabled**

  • 恢復調度

kubectl uncordon node_name
delete 刪除節點
  • 首先,驅逐node上的pod,其他節點重新創建

  • 然后,從master節點刪除該node,master對其不可見,失去對其控制,master不可對其恢復

  • 恢復調度,需進入node節點,重啟kubelet

    • 基于node的自注冊功能,節點重新恢復使用

systemctl restart kubelet

上述就是小編為大家分享的k8s運維06-kubectl delete node的過程是怎么樣的了,如果剛好有類似的疑惑,不妨參照上述分析進行理解。如果想知道更多相關知識,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

k8s
AI

瓦房店市| 蒙山县| 柞水县| 罗山县| 汝州市| 竹溪县| 璧山县| 万安县| 舒兰市| 玛曲县| 从江县| 金寨县| 康乐县| 菏泽市| 兰坪| 平和县| 密云县| 信阳市| 屏东市| 彭泽县| 陇川县| 朝阳市| 仙游县| 宜宾市| 林周县| 屯门区| 托里县| 方正县| 望奎县| 慈利县| 政和县| 如皋市| 延寿县| 阳城县| 容城县| 徐水县| 民勤县| 古蔺县| 讷河市| 武定县| 通许县|