如何在容器中避免CPU瓶颈限制

在 Uber,所有有状态的工作负载都运行在一个跨大型主机的通用容器化平台上。有状态工作负载包括 MySQL®、Apache Cassandra®、ElasticSearch®、Apache Kafka®、Apache HDFS™、Redis™、Docstore、Schemaless 等,并且在许多情况下,这些工作负载位于同一物理主机上。

凭借 65,000 个物理主机、240 万个内核和 200,000 个容器,提高利用率以降低成本是一项重要且持续的努力。直到最近,由于 CPU 限制,努力被阻止,这表明没有分配足够的资源。

事实证明,问题在于 Linux 内核如何为进程运行分配时间。在这篇文章中,我们将描述从 CPU 配额切换到 cpuset(也称为 CPU pinning)如何使我们能够以 P50 延迟的轻微增加换取 P99 延迟的显着下降。由于资源需求的差异较小,这反过来又使我们能够将整个集群范围内的核心分配减少多达 11%。

Cgroups、配额和 Cpusets

CPU 配额和 cpusets 是 Linux 内核调度程序的特性。 Linux内核通过cgroups实现资源隔离,所有容器平台均以此为基础。 通常,一个容器映射到一个 cgroup,该 cgroup 控制在容器中运行的任何进程的资源。

有两种类型的 cgroup(Linux 术语中的控制器)用于执行 CPU 隔离:CPU 和 cpuset。 它们都控制允许一组进程使用多少 CPU,但有两种不同的方式:分别通过 CPU 时间配额和 CPU pinning。

CPU 配额

CPU 控制器使用配额启用隔离。 对于 CPU 集,您指定要允许的 CPU 比例(核心)。 使用以下公式将其转换为给定时间段(通常为 100 毫秒)的配额:

quota = core_count * period

image6fa005d07b7daf5b.png

在上面的示例中,有一个需要 2 个内核的容器,这意味着每个周期需要 200 毫秒的 CPU 时间。

CPU 配额和限制

不幸的是,由于容器内的多处理/线程,这种方法被证明是有问题的。 这会使容器过快地用完配额,导致它在剩余时间段内受到限制。 如下图所示:

image99b0d9ade6991452.png

对于服务低延迟请求的容器来说,这最终成为一个真正的问题。 突然之间,由于限制,通常需要几毫秒才能完成的请求可能需要超过 100 毫秒。

简单的解决方法是为进程分配更多的 CPU 时间。 虽然这很有效,但它的规模也很昂贵。 另一种解决方案是根本不使用隔离。 但是,这对于位于同一地点的工作负载来说是一个非常糟糕的主意,因为一个进程可能会完全耗尽其他进程。

使用Cpuset避免瓶颈

cpuset 控制器使用 CPU pinning 而不是配额——它基本上限制了容器可以在哪些内核上运行。 这意味着可以将所有容器分布在不同的核心上,以便每个核心只服务于一个容器。 这样就实现了完全隔离,不再需要配额或节流,换句话说,可以在延迟一致性和更繁琐的核心管理之间妥协和更易于配置。 上面的例子看起来像这样:

image53b8aa9c765029a8.png

在这里,两个容器在两组不同的内核上运行。 他们被允许在这些核心上尽可能地使用它们,但它们不能使用未分配的核心。

这样做的结果是 P99 延迟变得更加稳定。 这是一个在启用 cpuset 时对生产数据库集群(每行都是一个容器)进行节流的示例。 正如预期的那样,所有限制都消失了:

image6809c6e3d728185a.png

限制消失了,因为容器能够自由使用所有分配的内核。 更有趣的是,由于容器能够以稳定的速率处理请求,P99 的延迟也得到了改善。 在这种情况下,由于去除了重度限制,延迟下降了大约 50%:

imageea7577e557f80790.png

此时值得注意的是,使用 cpuset 也有负面影响。 特别是,P50 延迟通常会增加一点,因为它不再可能突入未分配的内核。 最终结果是 P50 和 P99 延迟变得更接近,这通常是可取的。 这将在本文末尾进行更多讨论。

分配 CPU

为了使用 cpusets,容器必须绑定到核心。 正确分配内核需要一些关于现代 CPU 架构如何工作的背景知识,因为错误分配会导致性能显着下降。

CPU 通常围绕以下结构构建:

  • 一台物理机可以有多个 CPU 插槽
  • 每个socket都有独立的L3缓存
  • 每个 CPU 有多个核心
  • 每个核心都有独立的 L2/L1 缓存
  • 每个核心都可以有超线程
  • 超线程通常被视为核心,但分配 2 个超线程而不是 1 个可能只会将性能提高 1.3 倍

所有这些都意味着选择正确的内核实际上很重要。 最后一个问题是编号不是连续的,有时甚至不是确定性的——例如,拓扑可能如下所示:

imagea1d29ca49ae85e3c.png

在这种情况下,一个容器被安排在物理套接字和不同的内核上,这会导致性能下降——我们已经看到由于错误的套接字分配,P99 延迟降低了多达 500%。 为了处理这个问题,调度程序必须从内核收集确切的硬件拓扑,并使用它来分配内核。 原始信息在 /proc/cpuinfo 中可用:

image91002f962883a4d3.png

使用这些信息,我们可以分配物理上彼此靠近的核心:

image1d68213dcd7be2a1.png

缺点和限制

虽然 cpusets 解决了大部分延迟的问题,但也存在一些限制和权衡:

无法分配小数核心。这对于数据库进程来说不是问题,因为它们往往很大,因此向上或向下舍入不是问题。但是,这确实意味着容器的数量不能大于内核的数量,这对于某些工作负载来说是有问题的。

系统范围的进程仍然可以偷走时间。例如,通过 systemd、kernel workers 等在宿主机上运行的服务,仍然需要在某个地方运行。理论上也可以将它们分配给一组有限的内核,但这可能很棘手,因为它们需要的时间与系统负载成正比。一种解决方法是在容器子集上使用实时进程调度——我们将在稍后的博客文章中介绍这一点。

需要进行碎片整理。随着时间的推移,可用内核将变得碎片化,并且需要移动进程以创建连续的可用内核块。这可以在线完成,但是从一个物理套接字移动到另一个将意味着内存访问突然变得远程。这也可以缓解,但也是稍后有关 NUMA 的博客文章的主题。

没有突破限制。有时您实际上可能希望使用主机上未分配的资源来加速正在运行的容器。在这篇文章中,我们讨论了独占 cpuset,但可以将同一个核心分配给多个容器(即 cgroup),也可以将 cpuset 与配额结合使用。这允许突破限制,但这是另一个博客文章的另一个主题。

结论

切换到有状态工作负载的 cpuset 是 Uber 的一项重大改进。 它使我们能够实现更稳定的数据库级延迟,并且通过减少过度配置以处理由于节流导致的峰值,我们节省了大约 11% 的内核。 由于不可能发生突发事件,相同大小的容器现在在主机之间的行为相同,再次导致更一致的性能。

Uber 的有状态部署平台是内部开发的,但 Kubernetes® 也通过使用静态策略来支持 cpuset

5 1 投票
文章评分

本文为从大数据到人工智能博主「xiaozhch5」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://lrting.top/backend/4184/

(0)
上一篇 2022-03-24 16:50
下一篇 2022-03-25 00:18

相关推荐

订阅评论
提醒
guest

0 评论
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x