全天候科技 08-25
高盛硅谷AI调研之旅:底层模型拉不开差距,AI竞争转向“应用层”,“推理”带来GPU需求暴增
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

本文作者:李笑寅

来源:硬 AI

8 月 19 日至 20 日,高盛分析师团队于完成第二届硅谷 AI 实地调研,访问了 Glean、Hebbia、Tera AI 等领先 AI 公司,以及 Lightspeed Ventures、Kleiner Perkins、Andreessen Horowitz 等顶级风投机构,并与斯坦福大学和加州大学伯克利分校教授进行深入交流。

调研显示,随着开源与闭源基础模型在性能上迅速趋同,纯粹的模型能力已不再是决定性的护城河。竞争的焦点正从基础设施层全面转向应用层,真正的壁垒在于能否将 AI 深度整合进特定工作流、利用专有数据进行强化学习,并建立稳固的用户生态。

报告还援引 Andreessen Horowitz 等顶级风投的观点称,开源基础模型自 2024 年中期已在性能上追平闭源模型,达到 GPT-4 水平,而顶尖的闭源模型在基准测试上几乎没有突破性进展。

同时,以 OpenAI o3、Gemini 2.5 Pro 为代表的推理模型正成为生成式 AI 新前沿,其单次查询生成的输出 token 可达传统模型的 20 倍,从而推动 GPU 需求激增 20 倍,并支撑着 AI 基础设施资本支出在可预见的未来继续保持高位。

基础模型性能趋同,竞争焦点转向应用层

高盛的调研明确指出,AI 领域的 " 军备竞赛 " 已不再仅仅围绕基础模型展开。

多位风险投资人表示,基础模型的性能正日益商品化,竞争优势正向上游转移,集中在数据资产、工作流整合和特定领域的微调能力上。

Andreessen Horowitz 的合伙人 Guido Appenzeller 在交流中提到,开源大模型与闭源模型在性能上的差距在不到十二个月的时间内就被抹平,反映了开源社区惊人的发展速度。与此同时,顶尖闭源模型的性能自 GPT-4 发布后几乎停滞不前。

在这一背景下,AI 原生应用如何建立护城河成为关键。

AI 初创公司 Hebbia 认为,应用真正的壁垒并非技术本身——顶尖的工程团队可以在 6 到 8 个月内复制任何技术——而在于用户习惯的培养和分销渠道的建立。其逻辑类似于 Excel 的成功:通过深度嵌入工作流程和培养 " 超级用户 ",形成难以替代的网络效应。

Everlaw 等公司也强调,通过将 AI 深度集成到法律案件的文档处理流程中,为用户提供了一体化的便利和效率,这是独立 AI 模型无法比拟的。

值得注意的是,前沿 AI 实验室自身也意识到了这一转变。报告称,OpenAI、Anthropic 和 Google DeepMind 等机构正越来越多地涉足应用层,利用其对模型内部结构和发展路线图的洞察力,来构建更紧密的产品反馈和强化学习循环,这给独立的初创公司带来了新的竞争压力。

推理模型成新前沿,引爆 GPU 需求

报告数据显示,在过去三年里,运行一个达到恒定 MMLU 基准分数的模型成本从每百万 token 60 美元降至 0.006 美元,降幅高达 1000 倍——尽管大模型的单位运行成本正在急剧下降。但这并不意味着整体算力支出会减少。

多位 VC 指出,新的需求增长点正迅速涌现。调研发现,继 DeepSeek R-1 突破之后,出现了以 OpenAI o3、Gemini 2.5 Pro 和 Claude 4 Opus 为代表的新一代推理模型,这标志着基础模型的根本性转变。

传统大模型主要是复述记忆的答案,而推理模型则通过推导、验证和迭代来模拟思维过程。这导致后者的输出文本长度可达 1 万个 token,而传统 LLM 通常在 500 个 token 左右。而输出 token 量 20 倍的增长,直接转化为了对 GPU 推理算力 20 倍的需求。

高盛指出,这种转变使得推理成本变得高昂,但也让 AI 能更准确地应用于代码合成、法律、金融和工程等需要严谨分析的复杂领域。因此,VC 们普遍认为,当前高昂的 AI 基础设施资本支出是 " 适当且必要的 ",它不是利润的威胁,而是获取竞争优势的先决条件,尤其对于头部 AI 实验室而言。

AI 原生应用护城河:工作流、数据与人才

随着模型本身不再是稀缺资源,成功的 AI 应用公司正在通过其它方式构筑壁垒。高盛的调研总结了以下几大关键特征:

一是工作流整合与用户生态。成功的应用公司能快速为企业创造价值,将部署时间从数月缩短至几周。

例如,客户服务 AI 公司 Decagon 能帮助客户在 6 周内上线自动化客服系统,每投入 100 万美元即可节省 300 至 500 万美元成本。这种与现有业务流程的无缝对接是关键。

二是专有数据与强化学习。报告指出,静态的 " 围墙花园 " 式专有数据集在法律和金融等垂直领域价值巨大。

但比静态数据更有价值的是动态的用户生成数据,它可以为强化学习循环提供动力。能够尽早获得规模化用户的公司,可以利用高质量的用户反馈信号来持续优化模型,从而形成滚雪球式的领先优势。

三是专业人才的战略价值。与上一代 SaaS 浪潮不同,生成式 AI 应用的成功高度依赖于顶尖工程人才。构建高效的 AI 系统需要模型封装、智能体推理和强化学习回路设计等专业技能。

VC 认为,能够构建自我完善系统的 AI 人才极度稀缺,已成为可持续创新的主要瓶颈。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 高盛 开源 gpu 基础设施
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论