删除已建立的k8s集群中的节点后,添加新节点。可以参考Addinganewnode节点。如果新节点需要安装docker和k8s基础组件。建立集群可以参考之前的文章:CentOS8搭建KubernetesLinux运维交流社区推荐搜索k8s集群k8s集群添加节点1.在master中查看节点数和要删除的节点数.因为修改了集群ip,导致节点异常。[root@k8s-master?]#kubectl获取节点名称状态角色年龄k8s-Master准备好主13DV1.19.3K8S-NODE1NOTREDYREDY<无>13DV1.19.3K8S-NODE2k8s-node2nodready13dV1.19.32。执行删除节点操作。[root@k8s-master~]#kubectldeletenodesk8s-node1node"k8s-node1"deleted[root@k8s-master~]#kubectldeletenodesk8s-node2node"k8s-node2"deleted3.对删除的Clearnode节点中的集群数据信息。\[root@k8s-node1~\]#kubeadmreset\[reset\]警告:'kubeadminit'或'kubeadmjoin'对此主机所做的更改将被还原。\[reset\]Areyousureyouwantto继续?\[y/N\]:y\[preflight\]Runningpre-flightchecksW112105:40:44.8763939649removeetcdmember.go:79\]\[reset\]没有kubeadm配置,使用etcdpodspec获取数据目录\[重置\]未找到etcd配置。假设外部etcd\[reset\]请手动重置etcd以防止进一步的问题\[reset\]停止kubelet服务\[reset\]卸载“/var/lib/kubelet”中安装的目录\[reset\]删除内容配置目录:\[/etc/kubernetes/manifests/etc/kubernetes/pki\]\[reset\]删除文件:\[/etc/kubernetes/admin.conf/etc/kubernetes/kubelet.conf/etc/kubernetes/bootstrap-kubelet.conf/etc/kubernetes/controller-manager.conf/etc/kubernetes/scheduler.conf\]\[reset\]删除有状态目录的内容:\[/var/lib/kubelet/var/lib/dockershim/var/run/kubernetes/var/lib/cni\]重置过程不会清除CNI配置。为此,您必须删除/etc/cni/net。d重置过程不会重置或清理iptables规则或IPVS表。如果您希望重置iptables,则必须使用“iptables”命令手动执行。如果您的集群设置为使用IPVS,运行ipvsadm--clear(或类似的)以重置系统的IPVS表。重置过程不会清除您的kubeconfig文件,您必须手动删除它们。请检查$HOME/的内容.kube/配置文件。4.在集群中查看集群的令牌值\[root@k8s-master~\]#kubeadmtokencreate--print-join-commandW112105:38:27.40583312512configset.go:348\]WARNING:kubeadmcannotvalidatecomponentconfigsforAPIgroups\[kubelet.config.k8s.iokubeproxy.config.k8s.io\]kubeadm?join?10.0.1.48:6443?--token?8xwcaq.qxekio9xd02ed936?????--discovery-token-ca-cert-hash?sha256:d988ba566675095ae25255d63b21cc4d5a9a69bee9905dc638f58b217c651c145.将node节点重新添加到k8s集群中\[root@k8s-node1~\]#kubeadmjoin10.0.1.48:6443--token8xwcaq.qxekio9xd02ed936--discovery-token-ca-cert-hashsha256:d988ba566675095ae25255d63b21cc4d5a9a69bee9905dc638f58b217c651c14\[preflight\]运行预检\[WARNINGIsDockerSystemdCheck\]:检测到“cgroupfs”作为Dockercgroup驱动程序。推荐的驱动程序是“systemd”。请遵循https://kubernetes.io/docs/setup/cri/\[preflight\]Readingconfigurationfromthecluster...\[preflight\]仅供参考:您可以使用'kubectl-查看此配置文件nkube-systemgetcmkubeadm-config-oyaml'\[kubelet-start\]将kubelet配置写入文件"/var/lib/kubelet/config.yaml"\[kubelet-start\]将带有标志的kubelet环境文件写入到文件"/var/lib/kubelet/kubeadm-flags.env"\[kubelet-start\]启动kubelet\[kubelet-start\]等待kubelet执行TLSBootstrap...该节点已加入集群:\*证书签名r请求已发送到apiserver并收到响应。\*Kubelet已获悉新的安全连接详细信息。在控制平面上运行“kubectlgetnodes”以查看此节点是否加入集群。6.查看pod情况\[root@k8s-master~\]#kubectlgetpods-nkube-system-owideNAMEREADYSTATUSRESTARTSAGEIPNODENOMINATEDNODEREADINESSGATEScoredns-f9fd979d6-c6qrl0/1ContainerCreating113dk8s-node1<无><无>coredns-f9fd979d6-hmpbj1/1运行013d10.244.2.2k8s-node2<无><无>etcd-k8s-master1/1运行513d10.0.1.48k8s-master<无><无>kube-apiserver-k8s-master1/1运行613d10.0.1.48k8s-master<无><无>kube-controller-manager-k8s-master1/1运行513d10.0.1.48k8s-master<无><无>kube-flannel-ds-5ftj91/1运行413d10.0.1.48k8s-masterkube-flannel-ds-bwh281/1Running023m10.0.1.50k8s-node2kube-flannel-ds-ttx7c0/1Init:0/1023m10.0.1.49k8s-node1<无><无>kube-proxy-4xxxh0/1ContainerCreating213d10.0.1.49k8s-node1<无><无>kube-proxy-7rs4w1/1运行013d10.0.1.50k8s-node2<无><无>kube-proxy-d5hrv1/1运行413D10.0.1.48K8S-MASTERKube-SCHEDULER-K8S-Master1/1Running513D10.0.1.48K8S-MASTER7.查看NODE情况\[root@k8s-amaster~\]#kubectlgetnodesNAMESTATUSROLESAGEVERSIONk8s-masterReadymaster13dv1.19.3k8s-node1Ready24mv1.19.3k8s-node2Ready24mv1.19.3Hi-TechPark