范式智能推动GPU动态调度新进展 助云原生AI基础设施更高效
来源:证券时报·e公司 作者:王小伟 2025-10-30 18:20
Aa 大号字

港股AI代表性公司第四范式技术再现新进展。

继上月发布“虚拟显存”技术后,范式智能再次发布GPU动态调度新进展——基于Kubernetes动态资源分配(DRA)的GPU动态调度能力,实现对GPU算力与显存的一体化精细调度。该技术不仅是对用户关于“算力能否像显存一样动态切分”疑问的深入回应,也被视为GPU资源管理从容量扩展迈向多维资源协同调度的新阶段。

随着Kubernetes v1.34的正式发布,其核心特性——动态资源分配(DRA)已稳定启用,标志着云原生资源调度进入更智能、更灵活的时代。

目前,范式智能完成HAMi-Core与DRA的深度适配,并推出GPU动态资源驱动(DRA Driver),让GPU像CPU一样被灵活共享与调度,推动云原生算力管理体系不断完善与升级,为人工智能算力管理带来新的可能。

在AI任务中,GPU是模型训练和推理的“引擎”,但长期以来,传统使用方式常导致GPU资源浪费:要么“使用不满”,要么“独占浪费”。HAMi-Core结合DRA能力,实现了GPU的动态切分与多任务并行。简单来说,不同的任务可以同时使用同一块GPU,各自占用合适的算力与显存,就像多个应用共享CPU一样高效。

这将带来两大改变:在任务分发调度方面,同一个GPU节点上,由原来的串行分配变为并行调度,提升整体效率。

如果用发牌来比喻这一变化,就是从“一人发完再发下一人”到“同时发牌给所有玩家”。由此,现在GPU可同时为多个任务“发牌”,实现真正的并行调度,任务等待时间大幅缩短,集群吞吐效率提升。

在任务申请资源方面,可以根据需求选择不同配置的GPU,更精细、更灵活,相当于选牌方式从“固定套餐”到“自由组合”。

HAMi-Core 作为由范式智能主导贡献的开源项目,致力于提升GPU在容器化和云原生环境下的利用率。此次适配工作让HAMi-Core与Kubernetes的动态资源调度能力实现了结合,让算力资源的申请、分配和释放都能通过标准化方式自动完成,降低使用门槛。这体现了范式智能在AI基础设施层面的技术深耕,也展示了其对开源生态的持续投入。

目前范式智能已将该演示项目开源至GitHub(Project-HAMi/k8s-dra-driver),并将与HAMi社区持续推进相关特性和生态建设,以期更多开发者和企业参与共建,共同推动 GPU 调度技术更智能、更开放。

责任编辑: 臧晓松
e公司声明:文章提及个股及内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
更多相关文章
热门解读 更多
视频推荐 更多
热门股票 更多
股票名称 最新价
涨跌幅
Baidu
map