節點增加 1. 在 master 節點,獲取重新加入集群的 token kubeadm token create --print-join-command 2. 在 node 節點,安裝 docker 環境,與之前部署 k8s 集群操作一致 3. 在 master 節點進行操作,排干 pod 所在的node節點( 拿 k8s-node04.bjyzxg.sjhl 舉例 ) kubectl drain k8s-node04.bjyzxg.sjhl --delete-local-data --force --ignore-daemonsets 在 master 節點進行操作,刪除該 node節點 kubectl delete node k8s-node04.bjyzxg.sjhl 4. 在 node 節點執行第一步的結果 join 操作 kubeadm join 172.25.102.69:8443 --token ak3jyo.inndvdad9i19z8pc --discovery-token-ca-cert-hash sha256:740268f9b9d0161430b5f47498d941b0a80672f50321ddadbef327a8086f7b40 5. 在 node 節點操作,安裝 ceph 依賴包 yum install ceph-common 6.另外,對於 node節點 drain 之后需要恢復的,可以執行: 恢復調度 kubectl uncordon node_name
對於之前是node 節點的,后來剔除過,又因為別的原因還要加入node 節點的 首先執行: kubectl drain k8s-node04.bjyzxg.sjhl --delete-local-data --force --ignore-daemonsets kubectl delete node k8s-node04.bjyzxg.sjhl 其次執行: 1. kubeadm reset 2. systemctl stop kubelet 3. systemctl stop docker 4. rm -rf /var/lib/cni/ 5. rm -rf /var/lib/kubelet/* 6. rm -rf /etc/cni/ 7. ifconfig cni0 down 8. ifconfig flannel.1 down 9. ifconfig docker0 down 10. ip link delete cni0 11. ip link delete flannel.1 12. systemctl start docker 最后執行: kubeadm join 172.25.102.69:8443 --token ak3jyo.inndvdad9i19z8pc --discovery-token-ca-cert-hash sha256:740268f9b9d0161430b5f47498d941b0a80672f50321ddadbef327a8086f7b40