科技快讯网 17小时前
范式智能推动GPU动态调度新进展 助力云原生AI基础设施更高效
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

第四范式 2025 年 10 月 30 日 继上月发布 " 虚拟显存 " 技术引发行业对 GPU 资源灵活分配的关注后,范式智能近日再次发布 GPU 动态调度新进展——基于 Kubernetes 动态资源分配(DRA)的 GPU 动态调度能力,实现对 GPU 算力与显存的一体化精细调度。该技术不仅是对用户关于 " 算力能否像显存一样动态切分 " 疑问的深入回应,更标志着 GPU 资源管理从容量扩展迈向多维资源协同调度的新阶段。知识点预置

什么是 Kubernetes?

可理解为数据中心的 " 调度总管 ",负责分配计算资源

什么是 DRA?

像 " 灵活发牌手 ",允许将一块 GPU 按需切分,动态分配给多个任务

什么是 HAMi-Core?

由范式智能主导的开源项目,是容器内 GPU 的 " 资源控制器 ",实现显存与算力的精细管控

随着 Kubernetes v1.34 的正式发布,其核心特性——动态资源分配(DRA)已稳定启用,标志着云原生资源调度进入更智能、更灵活的时代。在这一背景下,范式智能基于长期在 AI 基础设施领域的积累,率先完成了 HAMi-Core 与 DRA 的深度适配,并推出 GPU 动态资源驱动(DRA Driver),让 GPU 像 CPU 一样被灵活共享与调度,推动云原生算力管理体系不断完善与升级,为人工智能算力管理带来新的可能。

GPU更灵活让算力更高效

在 AI 任务中,GPU 是模型训练和推理的 " 引擎 ",但长期以来,传统使用方式常导致 GPU 资源浪费:要么 " 使用不满 ",要么 " 独占浪费 "。HAMi-Core 结合 DRA 能力,实现了 GPU 的动态切分与多任务并行。简单来说,不同的任务可以同时使用同一块 GPU,各自占用合适的算力与显存,就像多个应用共享 CPU 一样高效。这带来了两大改变:

1. 任务分发调度:同一个 GPU 节点上,由原来的串行分配变为并行调度,显著提升整体效率如果用发牌来比喻这一变化,就是从 " 一人发完再发下一人 " 到 " 同时发牌给所有玩家 "

过去:GPU 节点上的任务必须串行执行,就像发牌员一张一张发,前一个任务不结束,后一个只能等待

现在:GPU 可同时为多个任务 " 发牌 ",实现真正的并行调度,任务等待时间大幅缩短,集群吞吐效率显著提升

2. 任务申请资源:可以根据需求选择不同配置的 GPU,更精细、更灵活还是用打牌来理解这个变化,就是选牌方式从 " 固定套餐 " 到 " 自由组合 "

过去:申请 GPU 像点套餐,只能选固定规格,比如申请三张数值相同的 "10" 牌,不管任务需要多强的算力,都只能用这一档配置

现在:用户可以 " 自选组合 ",根据任务需求自由搭配不同性能等级的 GPU,就像同时选择 "5、9、A" 等不同数字的牌——量体裁衣,既精准匹配计算需求,又避免资源浪费

这种能力的提升,让 GPU 的调度更智能、利用更充分。在大规模集群场景下,系统复杂度明显降低,性能提升体现在调度效率和任务处理速度上,为企业带来更流畅的算力体验和更高的运维效率。

推动云原生AI基础设施的进化

HAMi-Core 作为由范式智能主导贡献的开源项目,致力于提升 GPU 在容器化和云原生环境下的利用率。此次适配工作让 HAMi-Core 与 Kubernetes 的动态资源调度能力实现了结合,让算力资源的申请、分配和释放都能通过标准化方式自动完成,大幅降低了使用门槛。这一成果不仅体现了范式智能在 AI 基础设施层面的技术深耕,也展示了其对开源生态的持续投入。

开源共建释放更大的创新力

目前范式智能已将该演示项目开源至 GitHub(Project-HAMi/k8s-dra-driver),并将与 HAMi 社区持续推进相关特性和生态建设,欢迎更多开发者和企业参与共建,共同推动 GPU 调度技术走向更智能、更开放的未来。

我们相信:算力的自由调度与高效利用,是推动 AI 普惠化的重要基石。我们将持续致力于 AI 基础设施的智能化与标准化,帮助更多企业以更低的成本、更高的效率,释放 AI 的真正价值。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

gpu 云原生 ai 基础设施
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论