您好,登錄后才能下訂單哦!
這期內容當中小編將會給大家帶來有關k8s運維06-kubectl delete node的過程是怎么樣的,文章內容豐富且以專業的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
delete是一個比較粗暴的命令,它會將被刪node上的pod直接驅逐,由其他node創建(針對replicaset),然后將被刪節點從master管理范圍內移除,master對其失去管理控制,若想使node重歸麾下,必須在node節點重啟kubelet
以刪除10.5.0.45為例,看到節點存在
[root@k8smaster163075 ~] $kubectl get nodes NAME STATUS ROLES AGE VERSION 10.5.0.44 Ready,SchedulingDisabled <none> 41h v1.11.3 10.5.0.45 Ready <none> 41h v1.11.3 10.5.0.46 Ready <none> 41h v1.11.3 10.5.0.47 Ready <none> 41h v1.11.3 10.5.0.48 Ready <none> 41h v1.11.3 10.5.0.49 Ready <none> 41h v1.11.3
10.5.0.45節點有4個pod
image.png
[root@k8smaster163075 ~] $kubectl get pods -n test-kubeasy-k8s -o wide | grep 10.5.0.45 atlas-uat-deployment-5b65898567-85jpb 1/1 Running 0 14m 10.5.45.104 10.5.0.45 <none> atlas-uat-deployment-5b65898567-8l7gm 1/1 Running 0 41h 10.5.45.102 10.5.0.45 <none> atlas-uat-deployment-5b65898567-cqzj7 1/1 Running 0 41h 10.5.45.103 10.5.0.45 <none> atlas-uat-deployment-5b65898567-lzp7k 1/1 Running 0 41h 10.5.45.101 10.5.0.45 <none> [root@k8smaster163075 ~] $kubectl delete node 10.5.0.45 node "10.5.0.45" deleted
image.png
node已經不在master的控制范圍
對比kubectl drain/cordon node,
[root@k8smaster163075 ~] $kubectl get nodes NAME STATUS ROLES AGE VERSION 10.5.0.44 Ready,SchedulingDisabled <none> 41h v1.11.3 10.5.0.46 Ready <none> 41h v1.11.3 10.5.0.47 Ready <none> 41h v1.11.3 10.5.0.48 Ready <none> 41h v1.11.3 10.5.0.49 Ready <none> 41h v1.11.3
docker ps查看容器 已為空
[root@docker000045.ppdgdsl.com ~] $docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
重啟節點kubelet
進入master查看node,節點10.5.0.45出現,AGE=2m16s,剛生效
[root@k8smaster163075 ~] $kubectl get nodes NAME STATUS ROLES AGE VERSION 10.5.0.44 Ready,SchedulingDisabled <none> 42h v1.11.3 10.5.0.45 Ready <none> 2m16s v1.11.3 10.5.0.46 Ready <none> 42h v1.11.3 10.5.0.47 Ready <none> 42h v1.11.3 10.5.0.48 Ready <none> 42h v1.11.3 10.5.0.49 Ready <none> 42h v1.11.3
此三個命令都會使node停止被調度,后期創建的pod不會繼續被調度到該節點上,但操作的暴力程度不一
影響最小,只會將node調為SchedulingDisabled
之后再發創建pod,不會被調度到該節點
舊有的pod不會受到影響,仍正常對外提供服務
恢復調度
kubectl uncordon node_name
首先,驅逐node上的pod,其他節點重新創建
接著,將節點調為** SchedulingDisabled**
恢復調度
kubectl uncordon node_name
首先,驅逐node上的pod,其他節點重新創建
然后,從master節點刪除該node,master對其不可見,失去對其控制,master不可對其恢復
恢復調度,需進入node節點,重啟kubelet
基于node的自注冊功能,節點重新恢復使用
systemctl restart kubelet
上述就是小編為大家分享的k8s運維06-kubectl delete node的過程是怎么樣的了,如果剛好有類似的疑惑,不妨參照上述分析進行理解。如果想知道更多相關知識,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。