Article / 文章中心

Kubernetes Pod状态异常九大场景盘点

发布时间:2021-12-20 点击数:298
作者:炎寻

大家好,我是阿里云云原生应用平台的炎寻,很高兴能和大家在 Kubernetes 监控系列公开课上进行交流。
前四期公开课我们讲到了 Vol.1《通过 Kubernetes 监控探索应用架构,发现预期外的流量》Vol.2《如何发现 Kubernetes 中服务和工作负载的异常》、Vol.3《系统架构面临的三大挑战,看 Kubernetes 监控如何解决》、Vol.4《如何使用 Kubernetes 监测定位慢调用》。今天我们将进行第五讲,使用 Kubernetes 定位 Pod 状态异常的根因。

Kubernetes Pod 作为 Kubernetes 核心资源对象,不仅 Service、Controller、Workload 都是围绕它展开工作。作为最小调度单元的它,还担任着传统 IT 环境主机的职责,包含了调度,网络,存储,安全等能力。 正是因为 Pod 具有复杂的生命周期和依赖,绝大多数 Kubernetes 问题最终都会在 Pod 上表现出来。因此,我们介绍在实际工作实践中会遇到的 9 种典型场景,以及如何使用 Kubernetes 监控来处理这些场景,快速定位发现问题。

Kubernetes 监控


容器是用户进程,Pod 就像是机器,所以调度,网络,存储,安全等机器级别的异常以及进程运行的异常都会在 Pod 上面体现出来。围绕着 Pod 来说,有以下几个关键的点非常容易出现问题:

  • 调度

  • 镜像拉取

  • 磁盘挂载

  • Liveless/Readiness probe

  • postStart/preStop handler

  • 配置

  • 运行时


Kubernetes 提供相应的关键观测数据,包括 Pod Status 字段、相关事件、日志、性能指标、请求链路。
那么,接下来我们来盘点一下相关常见的问题场景。


01

常见问题场景

Cloud Native


问题场景 1:就绪失败,即 Pod 一直无法到达 Ready 状态,无法接收请求进行业务处理。


Ready 状态

常见的根因如下:

  • 资源不足,无法调度(Pending),即集群的 Node 没有预留资源能够满足 Pod 的 Request 资源;

  • 镜像拉取失败( ImagePullBackoff ),镜像的仓库地址,tag 出现问题;

  • 磁盘挂载失败(Pending),容器挂载的 PVC 没有 bound;

  • Liveless probe 探针失败,频繁重启;

  • Readiness probe 探针失败,无法达到 Ready 状态;

  • postStart 执行失败,一直无法进入运行状态;

  • 运行时程序崩溃( CrashLoopBackOff ),频繁重启;

  • 配置错误,比如挂载的 Volume 不存在(RunContainerError)。


问题场景 2:容器频繁重启,即 Pod 过去 24 小时重启次数 >=2。
虽然 Kubernetes 提供了很多自愈的能力,但是频繁重启依旧是不容忽视的问题。


pod频繁重启常见的根因如下:

  • 程序异常退出,比如非法地址访问,比如进入了程序需要退出的条件等;

  • 容器内存使用量超过内存 Limit 量,被 OOMKilled。


问题场景 3:Pod 服务的请求错误率变高
比如 Pod 过去 1s 的请求错误率 >=20%,这个问题就比较严重了。


Pod 服务的请求错误率

常见的根因如下:

  • 请求量突增,程序自身可能触发流控或者其他异常处理,导致请求处理失败率提升;

  • 自身代码处理错误,请求量没有变化,可能是上线新的功能有 bug;

  • 不可压缩资源不足(磁盘,内存),请求处理包含磁盘的写操作,资源不足出现失败;外部依赖服务报错,请求处理需要调用下游服务,他们报错引发请求处理失败。


问题场景 4:请求处理 P95 响应时间高
比如过去 30 分钟,有 5% 的请求耗时都超过了 3s,这个问题会影响使用该接口相当一部分客户的体验。


P95 响应时间


常见的根因如下:

  • 请求量突增,程序自身处理不过来,导致超时;

  • 自身代码池化资源不足,因为 bug 导致的线程池或者队列满,请求处理不过来,导致超时;

  • Pod 运行资源不足,请求处理包含 cpu/memory/io 资源的申请,但是资源不足导致处理慢;

  • 外部依赖服务响应时间高,请求处理需要调用下游服务,他们的响应时间高会导致请求处理慢;


问题场景 5:Pod 内存使用率高
比如超过 80%,这个时候就有 OOMKilled 的风险,也有被驱逐的风险。


Pod 内存使用率高


常见的根因如下:

  • 自身代码内存泄露;

  • Pod 内存 Request 值偏低,如果该值偏低的情况下配置 HPA,会频繁触发扩容,同时具有被驱逐的风险;


问题场景 6:Pod 容器出现内存 OOM,Pod 频繁重启,查看原因是 OOMKilled。


OOMKilled

常见的根因如下:

  • 自身代码内存泄露;

  • Pod 内存 Limit 值偏低,容器内存使用量超过 Limit 值会被 OOMKilled 掉;


问题场景 7:Pod CPU 使用率高。


Pod CPU 使用率高

比如 Pod 的整体 CPU 使用率超过 80%,常见的根因如下:

  • 自身代码效率不足,业务处理的时间复杂度太高,需要找到热点方法进行优化;

  • Pod CPU Request 值偏低,如果该值偏低的情况下配置 HPA,会频发触发扩容,同时具有被驱逐的风险;


问题场景 8:Pod CPU Throttled。
比如 Pod 的需求是要用 1c,一直只能用到 0.8 core,导致业务处理慢。



Pod CPU Throttled

常见的根因如下:

  • 自身代码效率不足,业务处理的时间复杂度太高,需要找到热点方法进行优化;

  • Pod CPU Limit 值设置太低,CPU 使用量超过该值,对应容器的 CPU 会被 Throttled;

  • 容器运行时自身问题,更具体来说个别内核版本即使在 CPU 没有超过 Limit 的时候也会对容器进行 CPU Throttled;


问题场景 9:Pod IO 高
比如 Pod 内存飙高,文件读写很慢,导致业务处理慢。


Pod IO 高

常见的根因如下:

  • 自身代码文件读写过于频繁,可以考虑批量化读写;

  • 节点本身的 IO 高影响 Pod,节点的 IO 是共享资源,部分高 IO 的 Pod 可能影响其他 Pod;

面对以上 9 个常见异常场景,在表象相似的情况戏,我们该如何进行根因分析?下面我们来看看最佳实践,如何使用 Kubernetes 监控来发现定位对应异常场景的根因。


02

最佳实践

Cloud Native


最佳实践一:Pod 的 Kubernetes 状态异常定位



Kubernetes 状态异常定位

Kubernetes 监控的 Pod 详情页包含了 Pod 相关的 Kubernetes 信息,比如事件、Conditions、获取 YAML 能力,日志界面以及终端能力,能够快速帮你定位异常场景 1 和异常场景 2 的根因。 最佳实践二:Pod 的错慢请求分析
Pod 的错慢请求分析

Kubernetes 监控的 Pod 详情页包含了该 Pod 作为服务端的性能监控,可以快速发现错慢趋势。对于错慢请求,我们存储了明细,包含了请求和响应信息、整体耗时,以及请求接收,请求处理和请求响应的分段耗时,能够帮助您快速定位错在哪,慢在哪,能够快速帮你定位异常场景 3 和异常场景 4 的根因。 最佳实践三:Pod 的资源消耗分析



 

Kubernetes 监控的 Pod 详情页包含了该 Pod 的资源消耗以及特定容器的资源申请失败监控,可以看到哪些容器资源消耗得多,后续我们将会加上 profiling 能力,回答哪个方法占用 CPU 比较多,哪个对象占用内存比较多,与此同时详情页还包含了关联 Node 的资源消耗情况,能够快速帮你定位异常场景 5-9 的根因。 

最佳实践四:Pod 到外部服务的请求性能分析




Kubernetes 监控的拓扑页面会展示集群节点到外部服务以及集群节点之间的请求关系,点击请求关系,可以快速查看特定节点到特定外部服务的请求性能,可以快速定位下游问题。帮助解决场景 3,4 的根因。
 最佳实践五:Pod 到外部服务的网络性能分析


Kubernetes 监控的拓扑页面会展示集群节点到外部服务以及集群节点之间的网络关系,点击网络关系,可以快速查看特定节点到特定外部服务的网络,可以快速定位网络和下游问题。帮助解决场景 3,4 的根因。 目前,Kubernetes 监控免费使用中