雷锋网 4小时前
3nm的1.6T DSP发布,Credo如何破解AI集群“运力”瓶颈?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

作者|杨依婷

编辑|包永刚

当全球科技巨头在 AI 算力竞赛中投入数千亿美元之际,一个新的瓶颈正悄然浮现——数据如何在庞大的 AI 计算集群中高效流动?

这个被称为 " 运力 " 的命题,正在成为决定 AI 计算效率的下一个战场。

" 在 AI 智算网络中,不只需要算力,还要关注运力。"Credo 公司在 9 月 9 日的深圳发布会上明确提出了这一判断," 运力的基础就是高速互联——这种互联贯穿从芯片内部到服务器之间、再到数据中心互联的每一个层面。"

换言之,解决互联问题,就是解决运力问题。

算力再强,如果数据传输跟不上,也难以真正释放 AI 系统的潜能。

也正是在这一判断下,Credo 推出了其新一代旗舰产品——基于台积电 3nm 工艺的 Bluebird 系列 1.6T DSP。

这款产品的推出,代表着 Credo 在高速光互联领域的又一次技术跨越,也为应对 AI 算力集群的 " 运力 " 瓶颈,提供了一个兼具前瞻性与落地可行性的关键方案。

与以往产品相比,Bluebird 系列的设计目标明显更具挑战:在突破 1.6T 带宽的同时,实现 " 超低功耗 " 与 " 超低延迟 " 的协同优化。这意味着它不只是性能的跃升,更是面向 AI 时代网络架构需求的一次结构性革新。

Credo 光 DSP 产品营销副总裁 Chris Collins 在会上指出,AI 数据中心的光互联需求正迎来爆发期,根据其调研," 至少有 11 家公司每年在 AI 数据中心领域投入超过 50 亿美元,部分公司甚至超过 1000 亿美元,其中约 16% 用于网络建设。这对于以太网与光互联行业而言,是一个前所未有的增长窗口。"

他进一步分析了智算网络对互联有着巨大需求的原因—— AI 网络与通用计算网络的差异:" 虽然两者都存在一个带交换机的以太网,但在 AI 网络中,还存在一个完全独立的后端网络,用于将所有 GPU 互联,形成一个更大的 GPU 来做大模型的训练。" 正因为如此,AI 网络所需的光收发器数量,至少是通用计算网络的两倍多,甚至接近十倍。

这种结构性的变化,使得高速互联技术从过去的 " 配套设施 " 升级为 AI 计算的 " 核心基础设施 ",正是在这个技术转折点上,Credo 将其 17 年在高速连接领域的技术积累,全面押注于解决 AI 时代的 " 运力 " 挑战。

一、Bluebird 1.6T DSP:更快、更聪明、更节能

当光模块加速迈向 1.6T 时代,挑战早已超越 " 更快 " 本身。

" 今天大家都在谈论 1.6T 光模块,但这不仅仅意味着速率更高。"Chris Collins 说," 在一秒钟内,有 1.6 万亿个 0 与 1 通过 DSP 传输,真正的挑战在于——如何确保每一个比特都被正确且高效地接收。"

这意味着,在 AI 训练和推理场景中,信号完整性与能效的平衡已成为高速光互联的核心命题。

为应对这一挑战,Bluebird DSP 采用了台积电 3nm CMOS 工艺,并在设计中延续了 Credo 一贯的 " 定制化优化 " 设计理念——工程团队在标准设计单元(cell)基础上,开发定制的芯片设计单元和时序结构,而非依赖通用标准单元,从而在不牺牲性能的前提下,将功耗优化至最佳水平。

配置方面,Bluebird 提供 4 × 224 Gbps 和 8 × 224 Gbps PAM4 两种版本,既能满足 800 G 高密度互联需求,也可支撑 1.6T 光模块的更高带宽场景。同时,Credo 同步推出了全功能 DSP 版本与线性接收光模组(LRO)版本,以适配不同规模和架构的 AI 数据中心部署,包括 scale-up 与 scale-out 等多样化网络形态。

针对 AI 集群中 GPU 间通信的高延迟瓶颈,Bluebird 将往返单向时延压缩至

Bluebird 不仅关注性能指标,也在系统层面做了深度优化,其内置的全链路遥测功能,可实时监控与诊断信号状态,从而提升系统可靠性与在线时长。这些功能同样适用于故障隔离、调试与量产测试等阶段,帮助用户提升部署与维护效率。

此外,Bluebird DSP 在电口与光口两端均配置了可调式性能优化功能套件,用户可根据不同应用场景灵活启用或关闭特定模块,以在光器件选型、系统集成及主机 ASIC 互操作性测试中获得最佳匹配效果。

凭借定制化架构与工艺优化,Bluebird 1.6T 全 DSP 光模块功耗低于 25W;若采用 Credo 的线性接收光模组(LRO)方案,功耗可进一步降至低于 20W,甚至接近现有 800G 光模块的能耗水平。

由此,Bluebird 真正实现了 " 更快、更聪明、更节能 " 的设计初衷——以 1.6T 速率突破带宽极限,以智能架构优化信号完整性与链路管理,并以极致能效重塑 AI 光互联的新平衡。

二、不止于 DSP:构建 " 运力网络 " 的产品矩阵

在 Credo 的战略版图中,1.6T DSP 只是 " 运力网络 " 的一个关键节点,真正的目标,是构建一条贯穿芯片、模块与系统的全栈高速互联链——从 AEC、PCIe 到 SerDes IP,Credo 正在用十余年的积累,重塑 AI 数据中心的 " 互联底座 "。

早在 AI 算力爆发之前,Credo 就已着手探索 " 高带宽、低功耗 " 的互联形式,其在七八年前推出的 AEC(Active Electrical Cable)产品,通过内置自研的 Retimer 与 Gearbox 芯片,可替代传统高功耗光模块,在保持信号完整性的同时实现最长 7 米的机柜内或跨机柜互联。

凭借出色的功耗控制与稳定性,AEC 迅速在 AI 服务器中获得广泛应用,Credo 销售副总裁杨学贤(Simon Yang)指出:"AEC 的应用正在从机架内延伸至跨机架连接。客户之所以选择它,是因为它在功耗、可靠性和成本上的综合优势。"

他表示:" 我以前从未想过铜缆能替代光纤,但现在这正在发生。"

这一趋势让 AEC 成功占据了 AI 网络 " 短距互联 " 的关键生态位,也为 Credo 的系统化布局打下基础。

在短距互联之外,Credo 同样在服务器内部总线和集群互联层面发力。

基于 AEC 技术积累,公司推出了 PCIe AEC 产品线,以满足 AI 服务器中 Scale-up 场景下 GPU 与 CPU、GPU 与 GPU 之间的高速互联需求。

更值得关注的是,Credo 已满足 PCIe Gen 6 标准的产品 – Toucan retimer 以及 Toucan AEC。Simon 介绍,该产品基于 7nm 工艺与自研 SerDes 技术,支持更高信号速率,并通过工具 PILOT 实现链路状态可视化,让客户能够实时监测、分析乃至预测链路性能变化。

这意味着,Credo 不仅在做 " 物理连接 ",更在构建智能可管理的运力链路。

而贯穿上述所有硬件产品与工具的,是 Credo 更为底层的技术根基——自主开发的硅知识产权(IP),"Credo 的创新始于 SerDes。它既可以作为独立 IP 授权,也能集成到芯片,再进一步扩展到系统级方案。"

从 IP 到芯片,再到系统,这种 " 垂直贯通 " 的创新体系,使 Credo 能够在 AI 时代实现从底层信号处理到系统互联的全栈优化,这不仅让公司产品具备一致的技术逻辑,也让其在多层网络架构中保持高兼容性与高能效。

随着 AI 模型规模不断扩大、GPU 集群愈发密集,‘运力’将与算力并列,成为 AI 基础设施的新核心指标。

在 AI 高速互联的时代拐点上,Credo 正以从 SerDes IP 到系统产品的全栈创新,构建 AI" 运力网络 " 的新标准——让数据流动的效率,真正匹配算力的爆发。

雷峰网

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 数据中心 gpu ai时代 以太网
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论