我试图删除一个有12个pod的ReplicationController,我可以看到一些pod卡在终止状态。

我的Kubernetes集群由一个控制平面节点和三个安装在Ubuntu虚拟机上的工作节点组成。

这个问题的原因是什么?

NAME        READY     STATUS        RESTARTS   AGE
pod-186o2   1/1       Terminating   0          2h
pod-4b6qc   1/1       Terminating   0          2h
pod-8xl86   1/1       Terminating   0          1h
pod-d6htc   1/1       Terminating   0          1h
pod-vlzov   1/1       Terminating   0          1h

当前回答

对我来说,我不喜欢变通。所以有几个步骤:

k get pod -o wide ->这会显示哪个Node正在运行pod k get nodes ->检查节点状态…我明白了

我修复了这个节点。对于我的情况,它只是重新启动kubelet:

ssh that-node ->运行swapoff -a && systemctl restart kubelet(或systemctl restart k3s,如果k3s |或systemctl restart crio,在其他情况下,如OCP 4。X (k8s <1.23))

现在删除豆荚应该工作而不强迫可怜豆荚。

其他回答

从资源(pod,deployment,ds等)中删除终结器块

"finalizers": [
  "foregroundDeletion"
]

强制删除pod:

kubectl delete pod --grace-period=0 --force --namespace <NAMESPACE> <PODNAME>

——force标志是强制的。

我最近在删除rook ceph命名空间时偶然发现了这个问题——它卡在了终止状态。

唯一有帮助的是通过使用curl直接调用k8s api来删除kubernetes终结器。

Kubectl获取命名空间鲁克-ceph -o json > tmp.json 删除tmp中的kubernetes终结器。Json(留下空数组“终结器”:[]) 在另一个终端上运行kubectl代理进行身份验证,并在返回的端口上运行curl请求 curl -k -H "Content-Type: application/json" -X PUT——data-binary @tmp。json 127.0.0.1:8001 /美丽/集群/ c-mzplp / api / v1 /命名空间/ rook-ceph /完成 命名空间消失了

详细的rook ceph拆卸在这里。

我发现这个命令更直接:

for p in $(kubectl get pods | grep Terminating | awk '{print $1}'); do kubectl delete pod $p --grace-period=0 --force;done

它将删除默认命名空间中处于终止状态的所有pod。

强制删除命名空间中的所有pod:

kubectl delete pods --all -n <namespace> --grace-period 0 --force