跳转到文档内容
版本:下一个

启用 AWS-Neuron 设备共享

概述

AWS Neuron 设备是 AWS 专为机器学习工作负载设计的硬件加速器,特别针对深度学习推理和训练场景进行了优化。这些设备属于 AWS Inferentia 和 Trainium 产品家族,可在 AWS 云上为 AI 应用提供高性能、高性价比且可扩展的解决方案。

HAMi 现已集成my-scheduler,提供以下核心功能:

  • Neuron 共享机制:HAMi 支持通过分配设备核心 (aws.amazon.com/neuroncore) 实现 AWS Neuron 设备共享,每个 Neuron 核心对应 1/2 个物理设备。

  • 拓扑感知调度:当容器需要分配多个 aws-neuron 设备时,HAMi 将确保这些设备之间具有物理连接,从而最小化设备间通信开销。具体连接方式请参阅不同实例类型的设备分配策略

前提条件

  • 已部署 Neuron-device-plugin
  • 使用InfTrn类型的 EC2 实例

启用 GCU 共享支持

helm install hami hami-charts/hami -n kube-system

设备分配粒度

HAMi 将每个 AWS Neuron 设备划分为 2 个可分配单元,支持分配半个物理设备。

Neuron 资源分配规范

  • 每个aws.amazon.com/neuroncore单元对应 1/2 个物理设备
  • 无需像其他设备那样显式分配aws.amazon.com/neuron,仅需分配aws.amazon.com/neuroncore
  • aws.amazon.com/neuroncore≥2 时,等效于设置awa.amazon.com/neuron=1/2 * neuronCoreNumber
  • 当任务需要多个 neuron 设备时,拓扑感知调度将自动生效

运行 Neuron 任务

容器现在可以通过以下两种资源类型申请 AWS Neuron 设备: aws.amazon.com/neuronaws.amazon.com/neuroncore

更多示例可参考 examples 目录

完整设备分配示例:

apiVersion: v1
kind: Pod
metadata:
name: nuropod
spec:
restartPolicy: Never
containers:
- name: nuropod
command: ["sleep","infinity"]
image: public.ecr.aws/neuron/pytorch-inference-neuron:1.13.1-neuron-py310-sdk2.20.2-ubuntu20.04
resources:
limits:
cpu: "4"
memory: 4Gi
aws.amazon.com/neuron: 1
requests:
cpu: "1"
memory: 1Gi

分配半个 Neuron 设备示例:

apiVersion: v1
kind: Pod
metadata:
name: nuropod
spec:
restartPolicy: Never
containers:
- name: nuropod
command: ["sleep","infinity"]
image: public.ecr.aws/neuron/pytorch-inference-neuron:1.13.1-neuron-py310-sdk2.20.2-ubuntu20.04
resources:
limits:
cpu: "4"
memory: 4Gi
aws.amazon.com/neuroncore: 1
requests:
cpu: "1"
memory: 1Gi

按设备 UUID 选择

可通过注解指定使用或排除特定 GPU 设备:

apiVersion: v1
kind: Pod
metadata:
name: poddemo
annotations:
# 指定使用的 GPU 设备 (逗号分隔列表)
aws.amazon.com/use-gpuuuid: "node1-AWSNeuron-0,node1-AWSNeuron-1"
# 或排除特定 GPU 设备 (逗号分隔列表)
aws.amazon.com/nouse-gpuuuid: "node1-AWSNeuron-2,node1-AWSNeuron-3"
spec:
# ... 其他 pod 配置

注意: 设备 ID 格式为{节点名称}-AWSNeuron-{索引号}。可通过节点注解查询可用设备 ID。

查询设备 UUID

通过以下命令查询节点上的 AWS Neuron 设备 UUID:

kubectl get pod <pod名称> -o yaml | grep -A 10 "hami.io/<卡类型>-devices-allocated"

或通过节点注解查询:

kubectl get node <节点名称> -o yaml | grep -A 10 "hami.io/node-register-<卡类型>"

在节点状态中查找包含设备信息的注解字段。

注意事项

  1. AWS Neuron 共享仅对申请单个设备 (即aws.amazon.com/neuroncore=1) 的容器生效。

  2. 容器内执行neuron-ls显示的是设备总内存,这属于正常现象。实际运行任务时会对设备显存进行正确限制。