我试图删除一个有12个pod的ReplicationController,我可以看到一些pod卡在终止状态。

我的Kubernetes集群由一个控制平面节点和三个安装在Ubuntu虚拟机上的工作节点组成。

这个问题的原因是什么?

NAME        READY     STATUS        RESTARTS   AGE
pod-186o2   1/1       Terminating   0          2h
pod-4b6qc   1/1       Terminating   0          2h
pod-8xl86   1/1       Terminating   0          1h
pod-d6htc   1/1       Terminating   0          1h
pod-vlzov   1/1       Terminating   0          1h

当前回答

我最近在删除rook ceph命名空间时偶然发现了这个问题——它卡在了终止状态。

唯一有帮助的是通过使用curl直接调用k8s api来删除kubernetes终结器。

Kubectl获取命名空间鲁克-ceph -o json > tmp.json 删除tmp中的kubernetes终结器。Json(留下空数组“终结器”:[]) 在另一个终端上运行kubectl代理进行身份验证,并在返回的端口上运行curl请求 curl -k -H "Content-Type: application/json" -X PUT——data-binary @tmp。json 127.0.0.1:8001 /美丽/集群/ c-mzplp / api / v1 /命名空间/ rook-ceph /完成 命名空间消失了

详细的rook ceph拆卸在这里。

其他回答

对我来说,我不喜欢变通。所以有几个步骤:

k get pod -o wide ->这会显示哪个Node正在运行pod k get nodes ->检查节点状态…我明白了

我修复了这个节点。对于我的情况,它只是重新启动kubelet:

ssh that-node ->运行swapoff -a && systemctl restart kubelet(或systemctl restart k3s,如果k3s |或systemctl restart crio,在其他情况下,如OCP 4。X (k8s <1.23))

现在删除豆荚应该工作而不强迫可怜豆荚。

如果——grace-period=0不起作用,那么你可以这样做:

kubectl delete pods <pod> --grace-period=0 --force

我将尝试最广泛的答案,因为上面没有一个是错误的,但它们并不适用于所有情况。

终止豆荚的通常方法是:

kubectl delete pod -n ${namespace} ${pod} --grace-period=0 

但您可能需要删除可能会阻止POD停止使用的终结器:

kubectl -n ${namespace} patch pod ${pod} -p '{"metadata":{"finalizers":null}}'

如果这些都不起作用,你可以用etcdctl从etcd中删除pod:

# Define variables
ETCDCTL_API=3
certs-path=${HOME}/.certs/e
etcd-cert-path=${certs-path}/etcd.crt
etcd-key-path=${certs-path}/etcd.key
etcd-cacert-path=${certs-path}/etcd.ca
etcd-endpoints=https://127.0.0.1:2379
namespace=myns
pod=mypod

# Call etcdctl to remove the pod
etcdctl del \
--endpoints=${etcd-endpoints}\
--cert ${etcd-cert-path} \
--key ${etcd-client-key}\
--cacert ${etcd-cacert-path} \
--prefix \
/registry/pods/${namespace}/${pod} 

这最后的情况下应该被用作最后的资源,在我的情况下,我结束不得不这样做,因为死锁阻止calico在节点中启动,由于Pods处于终止状态。在calico完成之前,这些pod不会被移除,但它们保留了足够的CPU以避免calico或任何其他pod初始化。

我在Kubernetes生产集群中遇到了同样的问题。

一个吊舱被困在终止阶段一段时间:

pod-issuing   mypod-issuing-0   1/1     Terminating   0  27h

我尝试使用命令检查日志和事件:

kubectl describe pod mypod-issuing-0 --namespace pod-issuing
kubectl logs mypod-issuing-0 --namespace pod-issuing

但没有人可以看到

我是如何解决的:

我运行下面的命令来强制删除pod:

kubectl delete pod <PODNAME> --grace-period=0 --force --namespace <NAMESPACE>

这将立即删除pod并开始创建一个新的pod。然而,当创建另一个pod时,我遇到了下面的错误:

无法挂载或挂载卷:unmounted volumes=[data], unattach volumes=[data mypod- issue -token-5swgg aws-iam-token]:超时等待条件

我不得不等待7到10分钟,使卷从我删除的上一个pod中分离出来,以便它可以用于我正在创建的新pod。

我最近在删除rook ceph命名空间时偶然发现了这个问题——它卡在了终止状态。

唯一有帮助的是通过使用curl直接调用k8s api来删除kubernetes终结器。

Kubectl获取命名空间鲁克-ceph -o json > tmp.json 删除tmp中的kubernetes终结器。Json(留下空数组“终结器”:[]) 在另一个终端上运行kubectl代理进行身份验证,并在返回的端口上运行curl请求 curl -k -H "Content-Type: application/json" -X PUT——data-binary @tmp。json 127.0.0.1:8001 /美丽/集群/ c-mzplp / api / v1 /命名空间/ rook-ceph /完成 命名空间消失了

详细的rook ceph拆卸在这里。