前提条件
安装 HAMi 之前,确保在您的环境中安装了以下工具和依赖项:
- Helm v3+
- kubectl v1.16+
- CUDA v10.2+
- NvidiaDriver v440+
准备您的 GPU 节点
在所有 GPU 节点上执行以下步骤。
本 README 假设已预安装 NVIDIA 驱动程序和 nvidia-container-toolkit。此外,还假设将 nvidia-container-runtime 配置为默认的低级运行时。
详情请参阅 NVIDIA 容器工具包安装指南。
基于 Debian 系统的 Docker 和 containerd 示例
安装 nvidia-container-toolkit
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/libnvidia-container/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | sudo tee /etc/apt/sources.list.d/libnvidia-container.list
sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
配置 Docker
在使用 Docker 运行 Kubernetes 时,使用 nvidia-ctk 工具自动配置 Docker:
sudo nvidia-ctk runtime configure --runtime=docker
然后重启 Docker:
sudo systemctl daemon-reload && systemctl restart docker
配置 containerd
在使用 containerd 运行 Kubernetes 时,使用 nvidia-ctk 工具自动配置 containerd:
sudo nvidia-ctk runtime configure --runtime=containerd
然后重启 containerd:
sudo systemctl daemon-reload && systemctl restart containerd
给节点打标签
通过添加标签 "gpu=on" 来为 GPU 节点打标签,方便使用 HAMi 调度这些节点。 如果没有此标签,这些节点就无法被 HAMi 调度器进行管理。
kubectl label nodes {nodeid} gpu=on