港股AI代表性公司第四范式技术再现新进展。
继上月发布“虚拟显存”技术后,范式智能再次发布GPU动态调度新进展——基于Kubernetes动态资源分配(DRA)的GPU动态调度能力,实现对GPU算力与显存的一体化精细调度。该技术不仅是对用户关于“算力能否像显存一样动态切分”疑问的深入回应,也被视为GPU资源管理从容量扩展迈向多维资源协同调度的新阶段。
随着Kubernetes v1.34的正式发布,其核心特性——动态资源分配(DRA)已稳定启用,标志着云原生资源调度进入更智能、更灵活的时代。
目前,范式智能完成HAMi-Core与DRA的深度适配,并推出GPU动态资源驱动(DRA Driver),让GPU像CPU一样被灵活共享与调度,推动云原生算力管理体系不断完善与升级,为人工智能算力管理带来新的可能。
在AI任务中,GPU是模型训练和推理的“引擎”,但长期以来,传统使用方式常导致GPU资源浪费:要么“使用不满”,要么“独占浪费”。HAMi-Core结合DRA能力,实现了GPU的动态切分与多任务并行。简单来说,不同的任务可以同时使用同一块GPU,各自占用合适的算力与显存,就像多个应用共享CPU一样高效。
这将带来两大改变:在任务分发调度方面,同一个GPU节点上,由原来的串行分配变为并行调度,提升整体效率。
如果用发牌来比喻这一变化,就是从“一人发完再发下一人”到“同时发牌给所有玩家”。由此,现在GPU可同时为多个任务“发牌”,实现真正的并行调度,任务等待时间大幅缩短,集群吞吐效率提升。
在任务申请资源方面,可以根据需求选择不同配置的GPU,更精细、更灵活,相当于选牌方式从“固定套餐”到“自由组合”。
HAMi-Core 作为由范式智能主导贡献的开源项目,致力于提升GPU在容器化和云原生环境下的利用率。此次适配工作让HAMi-Core与Kubernetes的动态资源调度能力实现了结合,让算力资源的申请、分配和释放都能通过标准化方式自动完成,降低使用门槛。这体现了范式智能在AI基础设施层面的技术深耕,也展示了其对开源生态的持续投入。
目前范式智能已将该演示项目开源至GitHub(Project-HAMi/k8s-dra-driver),并将与HAMi社区持续推进相关特性和生态建设,以期更多开发者和企业参与共建,共同推动 GPU 调度技术更智能、更开放。