新京报客户端

好新闻 无止境

立即打开
华为联合三大高校发布并开源AI容器技术Flex:ai
新京报 记者 韦博雅 编辑 王进雨
2025-11-24 20:05

新京报贝壳财经讯(记者韦博雅)11月21日,在上海举行的AI容器应用落地与发展论坛上,华为正式发布AI容器技术 Flex:ai,并联合上海交通大学、西安交通大学、厦门大学宣布该项产学合作成果全面开源。


当前,AI产业高速发展催生海量算力需求,但算力供需错配问题突出:小模型任务独占整卡导致资源闲置,大模型任务单机算力不足难以支撑,大量缺乏GPU/NPU的通用服务器更是处于算力“休眠”状态,供需错配造成严重的资源浪费。


本次发布并开源的Flex:ai XPU池化与调度软件,是基于Kubernetes容器编排平台构建,通过对GPU、NPU等智能算力资源的精细化管理与智能调度,实现AI工作负载与算力资源的精准匹配,可大幅提升算力利用率。


针对小模型训推的资源浪费问题,华为与上海交通大学联合研发 XPU 池化框架,将单张 GPU/NPU 卡精准切分为多份虚拟算力单元,切分粒度精准至10%,可实现算力单元的按需切分,使此类场景下的整体算力平均利用率提升30%。


面对通用服务器无法服务 AI 工作负载的痛点,华为与厦门大学合作推出跨节点拉远虚拟化技术,聚合集群内空闲 XPU 算力形成 “共享算力池”,一方面为高算力需求的AI工作负载提供充足资源支撑;另一方面,可让不具备智能计算能力的通用服务器通过高速网络,可将AI工作负载转发到远端“资源池”中的GPU/NPU算力卡中执行,从而促进通用算力与智能算力资源融合。


面对算力集群中多品牌、多规格异构算力资源难以统一调度的痛点,华为与西安交通大学共同打造Hi Scheduler智能调度器。该调度器可自动感知集群负载与资源状态,结合AI工作负载的优先级、算力需求等多维参数,对本地及远端的虚拟化GPU、NPU资源进行全局最优调度,实现AI工作负载分时复用资源。在负载频繁波动的场景下,可以保障AI工作负载的平稳运行,让算力都“物尽其用”。


校对 吴兴发

来阅读我的更多文章吧
韦博雅
新京报记者
记者主页
相关推荐
从“单点突破”到“多元协同”,解码国货美妆品牌的“长期主义”
财经
北京海淀区蝉联“最具创投价值之城”
新京号
8个项目签约,两大“首次”突破!
新京号
多项AI智造成果集中发布!门头沟全力打造首都西部智造高地
新京号
100项在京高校科技成果集中路演 18条举措提速高校成果上“货架”
新京号
北京以“头雁”姿态领跑人工智能新浪潮:在中关村洞见AI新未来
新京号
多方加速打造智能经济新形态
新京号
2026中关村论坛年会3月25日开幕 将首次发布《2025全球工程前沿》《开放科学国际合作行动计划》等重大成果
新京号
多家头部企业启动万人招聘
新京号
AI赋能钢铁智造:技术创新引领中国钢铁新征程
新京号

新京报报料邮箱:82708677@bjnews.com.cn