KubeCon EU 2026 回顾:HAMi 从展台到主论坛 Keynote Demo
刚刚结束的 KubeCon + CloudNativeCon Europe 2026,释放出一个越来越明确的行业信号:
云原生正在快速从“应用运行平台”演进为 AI 基础设施的运行底座。
在阿姆斯特丹,围绕 Kubernetes、GPU、推理服务、Agentic AI 和异构算力调度的讨论,已经不再停留在概念层面,而是进入到更具体的工程实践、社区协作与基础设施范式演进阶段。
作为 CNCF Sandbox 项目,HAMi 在本届大会上完成了从 Maintainer Summit、Lightning Talk、Project Pavilion 到主论坛 Keynote Demo 的一系列亮相。

Kubernetes 正在进入 AI Infra 阶段
如果说过去 Kubernetes 主要解决的是容器编排、微服务治理和云原生应用交付,那么在这届 KubeCon 上,更受关注的问题已经变成了:
- AI workload 如何更高效地运行在 Kubernetes 上?
- GPU 如何被共享、切分、调度和隔离?
- LLM serving 与底层资源管理如何协同?
- 异构算力如何被统一纳入云原生调度体系?
这些问题背后对应的是一个更本质的变化:
Kubernetes 正在从"编排应用"走向"编排算力"。
这也正是 HAMi 所处的位置。
Maintainer Summit:GPU 调度进入更核心的社区讨论
在大会前的 Maintainer Summit 上,HAMi Maintainer 李孟轩分享了 HAMi 对 AI 工作负载的见解。

随后团队参与了 CNCF 闭门会议,与 CNCF TOC 主席 Karena Angell、Red Hat 以及 vLLM 社区成员 Brian Stevens、Robert Shaw 等进行了深入交流。