使用 Pallas 编写 TPU 内核#
本页面重点介绍在 Google TPU 上尝试运行 Pallas 内核时需要注意的细节。首先,TPU 后端仍处于实验阶段,仅接受 JAX NumPy 的一个子集。此外,为 TPU 编写高性能代码可能需要仔细考虑硬件的固有能力。虽然许多不自然的硬件模式会被接受,但它们最终可能需要软件模拟,并可能减慢计算速度。
警告
此功能仍应被视为实验性的,因为工作仍在进行中(尤其是在改进错误消息方面)。
注意
虽然这里描述的所有功能都是实验性的,但我们仍然非常重视保持其正确性。因此,在尝试编写 TPU 内核时,可能会经常看到“未实现”的错误。但是,如果内核被编译器接受,它必须返回预期的结果。
如果您看到意外的输出,请将其与使用 interpret=True
传递给 pallas_call
运行的内核进行比较。如果结果不一致,请提交 错误报告。
什么是 TPU?#
TPU 是 Google 开发的硬件加速器。您可以将 TPU 视为 GPU,但专门针对机器学习工作负载进行了优化。因此,它们的架构差异很大。但是,我们相信 Pallas 可以让您轻松开始编写 TPU 内核,即使您没有完全了解底层硬件。话虽如此,充分了解硬件肯定会使编写高性能内核更容易。
简而言之,TPU 和 GPU 之间的主要区别在于 TPU 是具有非常宽的向量寄存器的顺序机器(有点像 CPU!)。同时,它们允许软件在后台调度某些操作,使其与主指令流异步执行。这包括诸如 HBM 内存访问(不能直接发出,而是必须由 DMA 子单元预取到内存层次结构的较低级别)、矩阵乘法(由 MXU 单元支持)或矩阵转置和置换(由 XLU 单元支持)之类的操作。
如果您有兴趣详细了解 TPU 架构,我们建议您阅读多年来发表的一系列论文。虽然其中许多论文讨论了特定的 TPU 代,但其中描述的许多想法也适用于后来的代。
值得注意的属性和限制#
BlockSpec
和网格迭代#
BlockSpec
(请参阅BlockSpec,又名如何将输入分块)通常在 Pallas 中按预期运行——内核主体的每次调用都可以访问输入的切片,并且旨在初始化输出的切片。
注意
- 并非所有块形状都受支持。在 TPU 上,仅支持秩至少为 1 的块
。此外,您的块形状的最后两个维度必须分别可以被 8 和 128 整除,或者等于整个数组的相应维度。
Pallas TPU 内核的一个有趣方面是它们处理内存空间的方式:虽然 pallas_call
的输入通常位于 HBM 中(主 TPU 内存),但传递到内核主体的引用将指向内存层次结构中较低级别的缓冲区(VMEM 或 SMEM)。这使内核主体能够以非常高的速度写入和读取它们,而所有与 HBM 的通信(具有非常高的延迟)都由编译器处理并与计算重叠。
更重要的是,与 GPU 相比,TPU 实际上是高度顺序的机器。因此,网格通常不是并行处理的,而是按字典顺序依次处理(但请参阅多核 TPU 配置部分了解例外情况)。这解锁了一些有趣的功能
当两个(按字典顺序)连续的网格索引使用输入的相同切片时,会跳过第二个迭代的 HBM 传输,因为数据已经可用。
内核主体的多次调用可以写入输出的同一切片,而不会有任何竞争条件的风险。但是,我们要求所有写入特定切片的调用都是连续的。
输出上的“连续”限制通常意味着网格维度的一些前缀总是会改变调用需要访问的输出切片,而输出窗口对于剩余的后缀保持不变。
例如,在为矩阵乘法实现 Pallas TPU 内核时,通常会使用 3 维网格:前两个维度将对应于沿左操作数的第一个轴和第二个操作数的第二个轴切片。第三个和最后一个网格轴将平铺缩减维度。对应于缩减维度的网格轴必须是最后一个,因为输出窗口不会沿此轴变化。然后可以将输出引用用作部分结果的累加器。
注意
对于这种低级内存层次结构来说,VMEM 相当大 (16MB+),因此可以使用较大的窗口大小。而且,通常,窗口大小越大,最终的硬件利用率就越高。但是,可以指定一个窗口大小,该窗口大小(以及保存溢出向量寄存器所需的空间)超出了 VMEM 的大小。在这种情况下,您很可能会看到一个低级编译器错误消息,抱怨内存不足错误。
数组布局#
数组的维度顺序在 Pallas 中是有意义的。在 JAX 程序中,jax.jit
内部的中间数组的排序通常对性能没有影响,因为编译器可以自由地重新排列它们。但是,由于 Pallas 旨在公开较低级别的功能,因此维度顺序会对生成的代码质量产生重大影响。
TPU 对 2D 向量寄存器执行大部分计算,对于 32 位值,其大小通常为 8x128(截至 TPU v6)。当从 VMEM 将向量值加载到寄存器时(例如,x = x_ref[...]
),数组的最后两个维度将被平铺到寄存器中。Pallas 将仅考虑将中间数组的最后两个维度映射到 8x128 向量寄存器维度(分别为子通道和通道)。
这是一个如何使用 6 个 8x128 平铺来平铺 12x320 数组的图形示例
平铺布局对内核编写者有几个重要的影响
数组的最后两个轴与其他轴的处理方式不同。例如,当涉及最后两个轴时,缩减、重塑和转置通常更昂贵。某些涉及最后两个维度的重塑不受支持,会导致编译器错误,但对于其他维度来说是“免费的”,并且在编译时执行。
虽然有时不可避免,但在最后两个轴中包含单例维度通常是浪费的,因为它们将占用整个平铺维度中的 1 个元素。消耗太多寄存器也可能导致寄存器溢出到 VMEM 中,从而降低内核性能。
与上述几点相关,所有向量计算都填充到平铺大小。添加两个 1x1 数组的成本与添加两个 8x128 数组一样,添加两个 8x128x1x1 数组的成本将是添加两个 8x128 数组的 1024 倍,因为 8x128x1x1 数组将填充为 8x128x8x128。
多核 TPU 配置#
在较新的 TPU 代中,芯片上的两个内核通常被抽象为一个设备。为了利用多个内核,Pallas 必须打破顺序网格执行保证,并且需要并行化一个内核上的网格轴。这是一个选择加入的过程。为了允许这样做,pallas_call
需要一个名为 dimension_semantics
的额外参数
该参数是一个列表,其中包含与网格中轴一样多的条目。只有 parallel
维度才能在内核上进行分区。根据经验,除非输出窗口不变化,否则维度是并行的。因此,dimension_semantics
始终是若干个 parallel
轴,后跟若干个 arbitrary
轴。
虽然在双核 TPU 设备上分区内核通常会导致 2 倍的加速,但实际上可能会小得多。如果主体的不同实例的成本差异很大,尤其如此。如果所有昂贵的步骤都被映射到一个内核,但所有廉价的步骤都被分配给另一个内核,则第二个内核将一直处于空闲状态,直到第一个内核完成其任务。
Pallas TPU 通常倾向于对大小为 TPU 内核数量倍数的轴进行分区,并且更喜欢对前导网格轴进行分区。
将操作数放置在 SMEM 中#
TPU 上的大部分计算将在向量单元上进行。不过,在许多情况下,执行许多标量运算非常有用,例如,执行控制流。出于这个原因,TPU 配备了一个单独的标量单元,以及连接到它的单独的标量内存 (SMEM)。根据经验,用于执行控制流决策的任何数据都应放置在 SMEM 中。
SMEM 是一种低延迟内存,支持随机访问,但您只能使用单条指令读取和写入 32 位值(与 VMEM 事务的 4KBi 粒度相比非常小,但由于缺乏对齐要求而更灵活!)。
当实现不按规则模式访问输入平铺的内核(例如,编写块稀疏内核时)时,标量内存也非常有用。在 Pallas 中,可以通过将 pallas_call
的 grid
参数替换为具有非零 num_scalar_prefetch
参数的 PrefetchScalarGridSpec
的 grid_spec
来实现。如果 num_scalar_prefetch
为 n
,则 pallas_call
的前 n
个参数将放置在 SMEM 中。不应为这些参数指定 BlockSpec
。但是,所有后续参数的 BlockSpec
不仅会收到网格索引,还会收到前导操作数的 SMEM 引用。
有关使用此功能的示例,请参阅标量预取和块稀疏计算。
支持的数据类型#
目前,Pallas TPU 支持以下数据类型
jnp.float32
jnp.bfloat16
jnp.int*
(所有精度,除了jnp.int4
)jnp.uint*
(所有精度)jnp.bool_
计算放置#
所有标量(即 0 维)数组将存储在标量寄存器中,并且对其执行的操作将在标量核心上执行。所有其他操作(即使是单元素但 1 维以上的数组)都将在向量核心上执行。
支持的操作#
矩阵乘法#
矩阵乘法总是以 float32 格式生成结果。如果你的输入不是 float32,我们建议使用 lax.dot
,并将 preferred_element_type
设置为 jnp.float32
。
当使用 lax.dot_general
时,可以将矩阵乘法操作数的最后两个维度的转置融合到操作中,这可以提高整体内核性能。
精度控制#
Pallas TPU 降级感知 jax.default_matmul_precision
。为了获得最佳性能(和最低精度),请使用 bfloat16
。如果你关心数值精度,你可能希望将精度设置为 float32
。
警告
即使你将 32 位操作数传递给矩阵乘法,它们也会被四舍五入为 bfloat16
,除非请求 float32
精度。
转置#
如果该值至少有 4 个维度,则除了最后两个轴之外的所有轴的任意转置都是免费的。否则,仅实现最后两个轴的转置。请注意,最后两个维度的一些转置可以融合到矩阵乘法中。
访问内存#
可以读取或更新引用的任意切片,但受实现约束。目前,对 32 位宽的输入没有限制,但对于较窄的类型,仅支持某些切片模式。在最后两个维度中,与 8 和 128 的倍数对齐的读取和写入,以及长度分别是 8 和 128 的倍数的读取和写入始终受支持。
对向量内存的读取和写入通常发生在形状为 (8, 128)
的图块上。因此,当读取或写入至少有两个维度的引用时,当内存访问的基本偏移量的索引可被平铺整除时,并且读取区域的大小是图块大小的倍数时,可实现最佳性能。
逐元素操作#
支持许多逐元素操作。值得注意的是,硬件通常仅支持使用 32 位类型进行逐元素计算。当加载使用较低精度类型的操作数时,在应用逐元素操作之前,通常应将其提升为 32 位类型。
值得注意的是,它们的成本可能会有显着差异。因此,我们概述了三类受支持的操作:廉价 (🟢)、中等 (🌕) 和昂贵 (🔴)。
操作 |
成本 |
---|---|
|
🟢 |
|
🟢 |
|
🟢 |
|
🌕 |
|
🟢 |
|
🟢 |
|
🟢 |
|
🟢 |
|
🟢 |
比较 ( |
🟢 |
类型转换 ( |
🟢 |
|
🌕 |
|
🌕 |
|
🌕 |
|
🔴 |
|
🔴 |
许多 JAX 函数是根据其他 JAX 原语实现的,因此此列表可能并不全面。例如,jax.nn.relu
是根据比较和 jnp.where
实现的,也将在 Pallas 内核中工作。
数组构造函数#
支持所有常量数组构造函数 (jnp.ones
, jnp.zeros
, jnp.full
)。
归约#
支持 sum
、max
、min
(用于浮点值)归约,以及用于布尔值的 any
和 all
。不支持整数归约。
对最后一个数组维度进行的归约通常是最慢的。对倒数第二个维度进行的归约速度更快,但仍然比对前导维度进行的归约慢。
广播#
广播的性能特征与归约的性能特征非常相似。始终支持沿除最后两个维度之外的所有维度进行的广播,并且是免费的。沿倒数第二个维度广播的速度较慢,而沿最后一个维度广播的速度最慢。
重塑#
像往常一样,支持除最后两个维度之外的所有维度的重塑,并且是免费的。
当重塑可以修改数组的最后两个维度时,仅支持两种情况:(1) 将某些前导维度展平到倒数第二个维度上,或 (2) 它添加了一个维度,而该维度刚刚被归约删除。
随机数生成#
Pallas 支持 jax.random
模块中最常用的函数,例如 uniform
、normal
和 bernoulli
。密钥应为 threefry2x32
密钥,这是 JAX 中的默认设置。密钥可以直接传递到内核中,或在内核内部生成。
控制流#
TPU 后端目前对控制流的支持有限。当前支持的函数是 cond
、fori_loop
和 for_loop
。但是,循环原语在编译期间会完全展开,因此请尝试使循环次数保持在合理的小范围内。
过度使用控制流可能会导致底层代码生成方面的显着退化,建议尝试将尽可能多的计算密集型操作压缩到单个基本块中。