新京报贝壳财经讯(记者韦博雅)11月21日,在上海举行的AI容器应用落地与发展论坛上,华为正式发布AI容器技术 Flex:ai,并联合上海交通大学、西安交通大学、厦门大学宣布该项产学合作成果全面开源。
当前,AI产业高速发展催生海量算力需求,但算力供需错配问题突出:小模型任务独占整卡导致资源闲置,大模型任务单机算力不足难以支撑,大量缺乏GPU/NPU的通用服务器更是处于算力“休眠”状态,供需错配造成严重的资源浪费。
本次发布并开源的Flex:ai XPU池化与调度软件,是基于Kubernetes容器编排平台构建,通过对GPU、NPU等智能算力资源的精细化管理与智能调度,实现AI工作负载与算力资源的精准匹配,可大幅提升算力利用率。
针对小模型训推的资源浪费问题,华为与上海交通大学联合研发 XPU 池化框架,将单张 GPU/NPU 卡精准切分为多份虚拟算力单元,切分粒度精准至10%,可实现算力单元的按需切分,使此类场景下的整体算力平均利用率提升30%。
面对通用服务器无法服务 AI 工作负载的痛点,华为与厦门大学合作推出跨节点拉远虚拟化技术,聚合集群内空闲 XPU 算力形成 “共享算力池”,一方面为高算力需求的AI工作负载提供充足资源支撑;另一方面,可让不具备智能计算能力的通用服务器通过高速网络,可将AI工作负载转发到远端“资源池”中的GPU/NPU算力卡中执行,从而促进通用算力与智能算力资源融合。
面对算力集群中多品牌、多规格异构算力资源难以统一调度的痛点,华为与西安交通大学共同打造Hi Scheduler智能调度器。该调度器可自动感知集群负载与资源状态,结合AI工作负载的优先级、算力需求等多维参数,对本地及远端的虚拟化GPU、NPU资源进行全局最优调度,实现AI工作负载分时复用资源。在负载频繁波动的场景下,可以保障AI工作负载的平稳运行,让算力都“物尽其用”。
校对 吴兴发