36氪 10-10
大模型「六小虎」里,至少两家要放弃大模型了
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

文|周鑫雨

编辑|苏建勋

2024 年,不少曾立下 " 做中国 OpenAI" 军令状的模型公司,开始打脸。

据《智能涌现》了解,被称为 "AI 六小虎 " 的 6 家中国大模型独角兽(智谱、零一万物、MiniMax、百川智能、月之暗面、阶跃星辰)中,已经有两家逐步放弃预训练模型,缩减了预训练算法团队人数,业务重心转向 AI 应用。

(本文希望重点讨论国内 AI 公司对 " 预训练 " 大模型的路线选择,及其背后的思考与后续侧重点,为了不引起不必要的纷争,遂隐去放弃预训练模型的企业名称。)

赶大模型早集的百度,9 月也一度传出 " 大概率放弃通用基础大模型研发,主要做应用 " 的消息。即便后续被百度辟谣,但 " 放弃预训练模型 ",已经成了行业的一个转折点。

可以说,能让厂商上大模型牌桌的,就是 " 预训练 "。所谓的 " 预训练(pre-train)",就好比大模型的基础教育阶段,赋予模型海量而通用的知识,是决定模型性能最关键的阶段,也是模型厂商最核心的技术壁垒。

对于 AI 行业而言,随着第三方预训练模型的性能提高,应用层企业逐步放弃预训练模型,专注于让模型更懂用户的 " 后训练(post-train)" 环节,是节省算力成本考量下的正常趋势。

2024 年 8 月,硅谷的明星 AI 企业、角色扮演类应用的典范 Character.AI,宣布放弃预训练,转向与第三方模型合作。他们在官方博客中给出的理由是:这使我们能够投入更多资源进行后训练,并为不断增长的用户群体创造新的产品体验。

然而,模型层企业放弃预训练模型,意味着主动走下 AGI 竞速的牌桌

更何况," 自研预训练模型 " 的故事,曾在短短一年间,给这些模型层企业带来丰厚的融资、顶级的人才,以及市场的声誉。模型公司放弃预训练,戳破了 AI 技术的泡沫。

就如一位 AI 从业者对《智能涌现》所评价的那样:

" 不少厂商从 OpenAI 身上得到的不是通往 AGI 的技术,而是盲目跟随的自信。"

但对于 AI 赛道而言,放弃预训练,也不算全然消极的信号。在资金、算力紧缺的当下,现有的大模型厂商,也开始对自身的能力和资源现状,进行了重新评估。

从模型转向应用,意味着在追赶 AGI 之前,AI 公司先选择了活下去。

钱不够烧了,模型和产品二保一

狂堆参数的 Scaling Law,目前是预训练的主流路径,同时也意味着高昂且持续的算力和数据投入。

马斯克曾估算,GPT-5 的训练可能需要 3 万 -5 万张 H100,仅芯片成本就超过 7 亿美元(约 50 亿元),几乎是百度一整个季度的净利润。

对于尚未盈利的创业公司而言,继续堆参数炼模型,筹钱首先就是一个难关。

据《智能涌现》了解,随着估值跨上 200 亿元台阶,国内大模型公司最新的单轮次融资规模在 50 亿元左右。估值的抬高,也会伴随着融资难度的加剧。

一名投资人告诉《智能涌现》,今年最后一季度,大模型独角兽不会再积极布局融资," 无论是企业还是一级市场,对下一轮融资都保持悲观 "。

数十亿元的融资,模型厂商不仅要分摊给持续堆参数的模型训练,还要喂给不断烧钱营销、却盈利能力有限的 AI 应用产品。

当下,与 OpenAI 的技术差距仍然难以弥合,国产模型之间的性能,也尚未拉开鲜明的差距。不少国内模型厂商开始借助 " 数据 + 场景 " 的长板,在 AI 应用上发力,试图率先跑出 AI 时代的 " 微信 " 和 " 抖音 " ——就连 ToB 基因显著的智谱 AI 和百川智能,也先后推出了 " 智谱清言 " 和 " 百小应 " 等 C 端应用。

规模化的 AI 应用,逐渐代替了领先的模型性能,成为模型厂商留在 AI 牌桌上的筹码。因此,用户数据,成了模型厂商不得不重视的指标。

《智能涌现》曾报道,月之暗面在 B 站给出的 CPA(用户转化人均成本)报价高达 30 元左右。而另有知情人士告诉《智能涌现》,如今模型厂商最高的报价,来自于字节跳动的 " 豆包 "," 几乎是 Kimi 报价的 2 倍 "。

2024 年以来投流刷脸的营销打法,让不少模型厂商的营销预算翻了数倍。营销价格水涨船高,但在 AI 产品差异化程度还不够的当下,砸钱买流量几乎是获客的唯一出路。

一家大模型独角兽的员工告诉《智能涌现》,公司曾在 2024 年中,中止了 AI 对话产品在部分社交媒体的投放," 当月获客数据立马变得很难看 "。一个月后,公司又恢复了投流。

并不是所有的大模型公司,都能从暂无尽头的烧钱中看到希望。

如今,AI 产品所消耗的推理成本,较一年前已经下降了近 99%。但不少业内人士反映,模型的训练依然占算力成本的至少 7 成。

这意味着,放弃预训练模型,是资源紧缺的当下,最具性价比的决定。

放弃预训练模型的其中一家独角兽,据多名知情人士透露,自 2024 年中,整家公司的目标重心已经放在了海外的 AI 应用产品,以及上市。

大模型公司,困在变现焦虑

为什么在模型和产品中选择舍弃前者保证后者?核心原因还是在于,目前靠大模型本身,没有明晰的变现渠道

多名从业者对《智能涌现》反映,2024 年开启的模型降价潮,并没有提高模型的营收能力。

" 模型 API 的降价,本质上是为了让客户体验模型能力,并转化成本地部署等高净利业务的付费。" 一名模型厂商大客户经理对《智能涌现》表示," 但表现没有达到预期,今年上半年大部分模型厂商的 ToB 业务,营收是砍半的。"

他记得,在一款模型宣布免费后,后台涌入了不少 " 白嫖 " 的开发者," 有一个做研究的开发者,一天用的 Token 数,就占了所有用户的 60%。"

模型付费转化的失败,很大程度是因为,被称为 " 价格屠夫 " 的开源模型更强了。

随着 Llama 3.1、Mistral Large 2、DeepSeek V 2.5 等一系列开源模型,性能已经达到了叫板 GPT-4,甚至 GPT-4o 的程度。

相对地,闭源模型的竞争力正在被削弱。" 付费能力高的企业,一般有自己的技术团队,可以基于开源模型直接做开发。" 上述大客户经理表示,对于技术能力不足的企业而言,"开源模型影响的是客户对模型价格的心理预期。"

一个典型案例是,2023 年 Llama 2 发布后,某大模型独角兽接到的客户报价,直接砍了一个 "0"。

模型变现能力不足,意味着当下模型厂商的现金流,几乎只能依靠融资,以及能够快速找到 PMF(产品 - 市场匹配度)的 AI 应用。

但如今,能为模型厂商吸引到融资的,除了漂亮的用户数据,只剩下跃升的模型性能。

一名投资人告诉《智能涌现》,模型厂商谁能先把 o1(OpenAI 最新模型)的能力追平,一级市场还是会为其小沸一番。

但 2024 年,不少大模型厂商,已经卡在了技术的瓶颈。

GPT-4 后,大模型技术的发展已经进入了深水区。9 月,前 OpenAI 首席科学家 Ilya Sutskever ——他曾将 Scaling Law 成功使用在 ChatGPT 等关键模型上——在宣布成立新公司 SSI 时直言:" 每个人都只说 Scaling 假设。但每个人都忽略了一个问题:我们到底在 Scaling 什么?"

大语言模型的迭代速度变慢、多模态仍处于攻坚早期,是模型赛道的现状。"GPT-4 之前,OpenAI 有公开的详细技术报告,大家还能对着‘抄’。之后技术报告不公开了,国内厂商的参考答案也没了。" 一名从业者表示," 更何况,OpenAI 的答案也不一定正确。"

一群失去方向的大模型公司,需要在技术的不确定性中,重新找到稳定性。

放弃预训练的模型厂商,抓住的是尚有盈利潜力的 AI 应用。多名知情者都对《智能涌现》表示,其中一家厂商的某款海外 AI 生产力工具产品,贡献 2024 年以来的大部分营收," 公司现在 70% 的人力都在做产品 " ——而这款出海应用的底层模型,也逐渐从自研的,换成了 GPT-4 和 GPT-4o。

而另一家在国内靠 ToB 起家的模型公司,也在 2024 年中推出了生产力和娱乐相的 C 端 AI 应用。

剩下仍在坚持预训练的厂商,则开始在技术上降本增效。

一家模型独角兽的员工告诉《智能涌现》,今年公司在算力采购上很克制,计划先采取优化训练框架等方式,降低模型的训练成本。

再比如,OpenAI 最新模型 o1 所采用的 Self-play(自博弈)策略,能够在不增加参数的情况下提升模型性能,也成了不少模型厂商低成本训练模型的稻草。

对于整个 AI 行业而言,放弃预训练模型,并不是一个消极的信号。拾象科技 CEO 李广密近期也公开对外表示,未来 80% 的公司会放弃预训练,硅谷逐渐形成的共识是 RL(强化学习)是接下来的突破点,能在控制算力成本的情况下,提升特定参数模型的能力。

这意味着从技术狂热重回理性后,厂商对技术范式和行业资源,开始重新思考和整合。

欢迎交流!

评论
大家都在看