每日经济新闻 10小时前
对标英伟达,华为开源AI容器技术Flex:ai 它可使算力平均利用率提升30%
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

AI(人工智能)产业高速发展正催生海量算力需求,但全球算力资源利用率偏低的问题日益凸显," 算力资源浪费 " 成为产业发展的关键桎梏。其具体表现为,小模型任务独占整卡导致资源闲置,大模型任务单机算力不足难以支撑,大量缺乏 GPU(图形处理器)/NPU(神经网络处理器)的通用服务器甚至处于算力 " 休眠 " 状态,供需错配造成资源浪费。

11 月 21 日,在 2025AI 容器应用落地与发展论坛上,华为公司副总裁、数据存储产品线总裁周跃峰发布了 AI 容器技术—— Flex:ai。据悉,Flex:ai 通过算力切分技术,将单张 GPU/NPU 算力卡切分为多份虚拟算力单元,切分粒度精准至 10%。此技术实现了单卡同时承载多个 AI 工作负载,在无法充分利用整卡算力的 AI 工作负载场景下,算力资源平均利用率可提升 30%。

在面临先进制程受限、单颗 AI 芯片性能与国外存在差距的现实下,Flex:ai 延续了华为 " 以软件补硬件 " 的发展路径。

值得一提的是,华为这项新技术还将对标英伟达 2024 年底收购的以色列公司 Run:ai。Run:ai 的核心产品是基于 "Kubernetes"(开源容器编排平台)构建的软件平台。其可通过动态调度、池化和分片等手段优化 GPU 资源使用。例如,自动驾驶公司 Wayve 就借助 Run:ai 将 GPU 集群效率从不足 25% 提升到 80% 以上。华为的 Flex:ai 同样聚焦于通过软件创新实现对英伟达、昇腾等其他第三方算力的统一管理与调度,屏蔽底层硬件差异,为 AI 应用提供更高效稳定的资源支撑。

此外,相比 Run:ai 主要服务于英伟达 GPU 生态,Flex:ai 并没有生态限制,英伟达的 GPU 和华为昇腾 NPU 等算力卡都可以使用。

Flex:ai 的能力已在真实产业场景中得到验证。瑞金医院与华为联合打造的多模态病理大模型 "RuiPath",被用于识别病理切片病灶区域,覆盖 19 个常见癌种。该模型基于 103 万张病理切片数据训练而成,但仅用 16 张昇腾 910B 算力卡便可完成大规模训练。这背后离不开 Flex:ai 的技术支撑,其通过算力资源切分、智能任务调度等技术,将 XPU(CPU、GPU、DPU 等芯片的统称)资源可用度从 40% 提升至 70%,破解了有限算力下的大规模训练难题。

IT 研究与咨询公司 "Gartner" 的分析师表示,目前 AI 负载大多都已容器化部署和运行。据预测,到 2027 年,75% 以上的 AI 工作负载将采用容器技术进行部署和运行。

华为方面称,Flex:ai 将在发布后同步开源在魔擎社区中,并与华为此前开源的多款 AI 工具共同组成完整的 ModelEngine(华为推出的 AI 训推全流程工具链)开源生态。

每日经济新闻

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai flex 华为 英伟达 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论