驱动之家 04-10
LLVM编译快50%、向量数据库性能高70% 英特尔与SambaNova异构AI推理方案下半年落地
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 4 月 10 日消息,英特尔公司与 SambaNova 联合推出一款面向量产的异构 AI 推理架构。

该方案将 AI 推理流程拆分为三个阶段:AI GPU 或加速器负责预填充并构建键值缓存,SambaNova SN50 可重构数据流单元(RDU)负责解码与标记生成,英特尔至强 6 处理器负责智能体工具调用、代码执行及跨硬件任务编排。

平台计划于 2026 年下半年面向企业及云服务商正式推出。

相比基于 Arm 架构的服务器 CPU,至强 6 在 LLVM 编译任务中速度提升超过 50%;相比 AMD EPYC,至强 6 在向量数据库工作负载中性能提升高达 70%。

两家公司表示,这些性能增益旨在缩短编码智能体及类似应用的端到端开发周期。

该方案对标英伟达针对 Rubin 平台设计的预填充与解码分离策略(Rubin CPX 搭配 Rubin GPU),但 Rubin CPX 尚未上市。相比之下,英特尔与 SambaNova 的方案依赖至强 6 处理器承担编排角色,而非英伟达产品。

英特尔数据中心事业部表示,该异构架构可直接部署于现有风冷数据中心,无需改造基础设施。两家公司此前已于 2026 年 2 月宣布多年期战略合作,此次方案是双方合作的首个量产级落地产品。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

英特尔 ai 英伟达 数据库 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论