背景:昨天搭建新集群后,出现新问题,其中一个master节点无法正常工作。虽然可以正常使用,但是存在单点故障。今天修复时,etcd健康检查失败。昨天,新集群建立后,出现了新问题a,其中一个master节点没有正常工作。虽然可以正常使用,但是存在单点故障,今天在修复etcd健康检查自检失败。加入集群时,出现如下错误:加入集群时,出现如下错误提示etcdmonitoringcheckfailed,查看Kubernetes集群中的kubeadm配置信息。提示etcd监控检查失败,查看Kubernetes集群中的kubeadm配置信息\[root@master-01~\]#kubectldescribeconfigmapskubeadm-config-nkube-system----apiEndpoints:master-01:advertiseAddress:10.0.0.11bindPort:6443master-02:advertiseAddress:10.0.0.12bindPort:6443master-03:advertiseAddress:10.0.0.13bindPort:6443apiVersion:kubeadm.k8s.io/v1beta2kind:EventsStat当时etcd在镜像的形式。master02出现问题后,删除完成后各个master上还保存着etcd,所以再次添加时就会知道健康检查失败了。因为在建集群的时候,etcd是做镜像的,master02上出问题后,cull完成后,etcd还是存放在各个master上面,所以再添加的时候,就会知道健康检查失败了。需要进入容器手动删除etcd。首先获取集群中的etcdpod列表看看,进入里面给出一个sh窗口。此时需要到容器里面去手动删除这个etcd,先拿到集群里面的etcdpod列表看看,进去里面给个shwindow\[root@master-01~\]#kubectlgetpods-nkube系统|grepetcd\[root@master-01~\]#kubectlexec-itetcd-master-03sh-nkube-system进入容器后进行如下操作:进入容器后进行如下\##配置环境$exportETCDCTL\_API=3$别名etcdctl='etcdctl--endpoints=https://127.0.0.1:2379--cacert=/etc/kubernetes/pki/etcd/ca.crt--cert=/etc/kubernetes/pki/etcd/server.crt--key=/etc/kubernetes/pki/etcd/server.key'##查看etcd集群成员列表$etcdctlmemberlist##删除etcd集群成员master-02$etcdctlmemberremove##再次查看etcd集群成员列表$etcdctlmemberlist##退出容器$exit查看列表并删除master查看列表并移除不再存在的master再次加入master即可成功。再次加入master,你会成功的高科技园区
