(全球 TMT2025 年 12 月 25 日讯)浪潮信息推出元脑 HC1000 超扩展 AI 服务器,将推理成本首次击穿至 1 元 / 每百万 token。这一突破不仅有望打通智能体产业化落地 " 最后一公里 " 的成本障碍,更将重塑 AI 产业竞争的底层逻辑。

火山引擎最新披露的数据显示,截至今年 12 月,字节跳动旗下豆包大模型日均 token 使用量突破 50 万亿,较去年同期增长超过 10 倍,相比 2024 年 5 月刚推出时的日均调用量增长达 417 倍;谷歌在 10 月披露,其各平台每月处理的 token 用量已达 1300 万亿,相当于日均 43.3 万亿,而一年前月均仅为 9.7 万亿。当使用量达到 " 百万亿 token/ 月 " 的量级时,哪怕每百万 token 成本只下降 1 美元,也可能带来每月 1 亿美元的成本差异。
浪潮信息推出的元脑 HC1000 超扩展 AI 服务器,基于全新设计的全对称 DirectCom 极速架构,采用无损超扩展设计,可高效聚合海量本土 AI 芯片,支持极大推理吞吐量,推理成本首次击破 1 元 / 每百万 token。DirectCom 极速架构,每计算模组配置 16 颗 AIPU,采用直达通信设计,实现超低延迟;计算通信 1:1 均衡配比,实现全局无阻塞通信;全对称的系统拓扑设计,可以按需配置计算实例,最大化资源利用率。DirectCom 架构还保障了计算和通信均衡,推理性能 1.75 倍提升,单卡 MFU 最高可提升 5.7 倍。此外,元脑 HC1000 通过自适应路由和智能拥塞控制算法,提供数据包级动态负载均衡,实现 KV Cache 传输和 All to All 通信流量的智能调度,将 KV Cache 传输对 Prefill、Decode 计算实例影响降低 5-10 倍。


登录后才可以发布评论哦
打开小程序可以发布评论哦