jax.experimental.multihost_utils.host_local_array_to_global_array

jax.experimental.multihost_utils.host_local_array_to_global_array#

jax.experimental.multihost_utils.host_local_array_to_global_array(local_inputs, global_mesh, pspecs)[source]#

将主机本地值转换为全局分片的 jax.Array。

此函数采用主机本地数据(在不同主机上可能不同),并使用此数据填充全局数组,其中每个主机上的每个设备都根据 global_mesh/pspects 定义的分片获取适当的数据切片。

例如

>>> global_mesh = jax.sharding.Mesh(jax.devices(), 'x')
>>> pspecs = jax.sharding.PartitionSpec('x')
>>> host_id = jax.process_index()
>>> arr = host_local_array_to_global_array(np.arange(4) * host_id, mesh, pspecs)  # NB: assumes jax.local_device_count() divides 4.   

生成的数组将具有形状 (4 * num_processes) 并将具有分布式值: (0, 1, 2, 3, 0, 2, 4, 6, 0, 3, 6, 9, … ),其中每个切片 np.arange(4) * host_id 将跨对应主机的设备进行分区。

同样

>>> mesh = jax.sharding.Mesh(np.array(jax.devices()).reshape(jax.process_count(), jax.local_device_count()), ['host', 'dev'])
>>> pspecs = jax.sharding.PartitionSpec('host')
>>> host_id = jax.process_index()
>>> arr = host_local_array_to_global_array(np.arange(4) * host_id, mesh, pspecs)  

将创建相同的分布式值 (0, 1, 2, 3, 0, 2, 4, 6, …),但是每个切片 np.arange(4) * i 将在对应主机的设备上复制

另一方面,如果 pspecs = PartitionSpec(),这意味着跨所有轴复制,则此代码段

>>> pspecs = jax.sharding.PartitionSpec()
>>> arr = host_local_array_to_global_array(np.arange(4), mesh, pspecs)  

将具有形状 (4,),并且值 (0, 1, 2, 3) 将在所有主机和设备上复制。

如果 local_inputs 不相同,而 pspec 指示数据复制,则这是一个未定义的行为。

您可以使用此函数过渡到 jax.Array。 使用 pjit 的 jax.Array 与使用 GDA 的 pjit 具有相同的语义,即 pjit 的所有 jax.Array 输入都应该是全局形状的。

如果您目前正在将主机本地值传递给 pjit,则可以使用此函数将主机本地值转换为全局数组,然后将其传递给 pjit。

示例用法。

>>> from jax.experimental import multihost_utils 
>>>
>>> global_inputs = multihost_utils.host_local_array_to_global_array(host_local_inputs, global_mesh, in_pspecs) 
>>>
>>> with mesh: 
>>>   global_out = pjitted_fun(global_inputs) 
>>>
>>> host_local_output = multihost_utils.global_array_to_host_local_array(global_out, mesh, out_pspecs) 

请注意,此函数要求全局网格是一个连续网格,这意味着属于每个主机的设备应在此网格中形成一个子立方体。 要将本地数据移动到具有非连续网格的全局数组,请改为使用 jax.make_array_from_callback 或 jax.make_array_from_single_device_arrays。

参数:
  • local_inputs (Any) – 主机本地值的 Pytree。

  • global_mesh (jax.sharding.Mesh) – 一个 jax.sharding.Mesh 对象。该网格必须是连续的网格,

  • mesh. (即所有主机的设备必须在此形成一个子立方体)

  • pspecs (Any) – 一个 jax.sharding.PartitionSpec 的 Pytree。

返回值:

一个全局数组的 Pytree。