放弃训练,专注推理。
作者 | ZeR0
编辑 | 漠影
芯东西 5 月 9 日报道,据 EETimes 报道,美国 AI 芯片独角兽 SambaNova Systems 近期宣布将裁员 77 人,约占其 500 名员工的 15%。此次裁员正值该公司偏离最初目标,放弃做 AI 训练,转向完全专注于 AI 推理。
SambaNova 成立于 2017 年,总部位于美国加州,曾希望为训练和推理打造基于统一架构的 AI 芯片,2023 年发布了一款专为大语言模型微调和推理设计的芯片。其上一轮融资是 2021 年的 D 轮融资,使其融资总额超过 11 亿美元(约合人民币 80 亿元),估值超过 50 亿美元(约合人民币 362 亿元)。
SambaNova 发言人称,该公司做出了一些调整,以适应当前的市场状况以及从模型训练到微调和推理的转变。SambaNova 已迅速转向专注于提供云优先解决方案,帮助企业和开发者大规模部署开源模型。
在 AI 训练市场,英伟达的统治地位难以撼动。相对而言,在 AI 推理市场收获客户可能性更大。随着大模型服务日益普及,模型推理亟需更高性价比的算力基础设施,这使得数据中心 AI 推理芯片市场规模被空前看好。数据中心领域的 AI 芯片和硬件创企已转向通过云端提供对开源大语言模型的 API 访问。
SambaNova 的目标客户群是企业市场,他们正尝试通过云服务部署基于大语言模型的应用程序来进入推理领域,去年 9 月首次推出 SambaNova Cloud。该公司的软件栈 SambaNova Studio 面向企业 AI,并随 SambaNova 机架式硬件一起提供,用于本地集群和云端。
近几个月来,AI 芯片独角兽 SambaNova、Cerebras、Groq,通过自有硬件提供大语言模型 token 服务。这三家公司最初都专注于为其他云服务提供商和本地 AI 计算销售硬件系统,其中 SambaNova 和 Cerebras 仍在销售硬件系统。
SambaNova 平台搭载其第四代处理器 SN40L。SN40L 采用数据流架构和三层内存架构,提高了 AI 推理效率。通过整合超大内存,单个 SambaNova 系统即可容纳数 TB 的模型。
根据独立 AI 基准测试公司 Artificial Analysis 的测试结果,SambaNova 在 DeepSeek R1 671B 上平均每秒每位用户可交付 250 个 token,而使用 GPU 的提供商平均每秒每位用户仅交付 19 个 token,这意味着 SambaNova 的推理性能平均比 GPU 驱动的系统快 10 倍以上。
尽管多家 AI 芯片创企曾披露 " 超越英伟达 " 的雄心,并试图通过提供更具竞争力的价格来打动客户,但芯片市场竞争非常残酷,英伟达的生态影响力难以撼动,其他在 AI 芯片市场上有所作为的供应商也以芯片大厂居多。
精简团队、聚焦主线,是近期多家芯片企业为改善业绩、增强竞争力的主要手段。随着企业适应不断变化的行业竞争和经济状况,2025 年科技行业的裁员名单预计会变得更长。
来源:SambaNova,EETimes
登录后才可以发布评论哦
打开小程序可以发布评论哦