首席商业评论 02-22
DeepSeek的六万张卡如何回本?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

究其 DeepSeek 训练其模型到底使用了多少张英伟达卡,据《DeepSeek-V3 技术报告》官方给出的是 2048 张英伟达 H800 芯片和 1 万张 A100 显卡。而半导体研究机构 SemiAnalysis 认为 DeepSeek 囤积了包括 1 万张 A100、1 万张 H100、1 万张特供版 H800、3 万张特供版 H20 在内的六万张英伟达 GPU 卡。

不重要,这不是本文要讨论的。

而,DeepSeek 的这六万张卡如何回本?

简而言之一个词:开源。

以下是本文逻辑:

1、"DeepSeek+" 行情到来,开源背后的经济账

2、都在搞钱,那么 DeepSeek 的钱怎么搞?

01

"DeepSeek+" 行情到来,开源背后的经济账

2 月 10 日,OpenAI 创始人山姆 · 奥特曼在个人博客分享了他对人工智能经济学的三个观察(《Three Observations》)。他分享了人工智能经济学的三个观察。

(一)AI 模型的智能水平大致等于用于训练和运行它所需资源的对数值。这些资源主要包括训练算力、数据和推理算力。实践表明,投入的资金可以持续带来可预测的收益提升;这种 scaling law 在多个数量级的范围内都保持准确。

(二)使用特定水平 AI 的成本每 12 个月下降约 10 倍,较低的价格又会带来更广泛的应用。这一点可以从 2023 年初的 GPT-4 到 2024 年中的 GPT-4o 的变化中得到印证,其中每个 token 的价格在这段时间内降低了约 150 倍。相比之下,摩尔定律以每 18 个月翻倍的速度改变了世界,而 AI 的发展速度则更为惊人。

(三)智能的线性增长能带来超指数级的社会经济价值。因此,我们看不到任何理由认为这种指数级增长的投资会在近期停止。

在山姆 · 奥特曼的 "AI 经济学 " 框架中,模型能力的提升与成本的边际递减是其核心命题。据山姆 · 奥特曼在接受采访中称,随着智能模型固定级别的智力水平的一旦实现,其训练成本每年都会下降约 10 倍。" 这很疯狂!就像摩尔定律是温和的改变世界!" 山姆 · 奥特曼感叹。

不得不说,除了其实践经验,OpenAI 最近这关于开源的最新认可,和 DeepSeek 最近在商业上的 " 倒逼 " 有着直接关系。开源策略的深层意义,在于构建一个 " 技术 - 数据 - 商业 " 的飞轮。

2 月 17 日,DeepSeek 正式宣布接入微信并开展灰度测试。DeepSeek 与微信的合作,本质是将模型能力嵌入高频社交场景,获取海量用户交互数据。

2 月 3 日,DeepSeek 官宣与阿里云以及百度智能云联合,通过云服务触达企业客户,通过共享技术资源、优化算法等方式,进行生态共建。

2 月初,DeepSeek 和三大运营商达成战略合作,实现 AI 技术在通信服务中的深度融入,这包括网络管理、服务优化、用户体验等多个维度的突破性进展。

1 月 29 日,微软和 DeepSeek 共同宣布,DeepSeek-R1 已经在微软的 AI 平台 Azuer AI Foundry 和 Github 可用,开发者可以使用新模型进行测试和构建基于云的应用程序和服务。

以阿里云为例,其平台 AI 组件产品 PAI Model Gallery 支持云上一键部署 DeepSeek 系列模型,包括 DeepSeek-V3、DeepSeek-R1 等。用户无需编写代码,即可通过阿里云平台实现模型训练的过程。值得一提的是, PAI Model Gallery 自身是对阿里云用户开源的。而 PAI Model Gallery 的两种资费方式,在线服务(EAS)计费和分布式训练(DLC)计费,都是根据用户实际使用的资源来计算费用的,比如按使用时间或者次数来收费。这代表了 AI 开源业界普遍的一种收费模式。

DeepSeek 和这些 B 端企业的合作模式类似于 Android 的开源生态:DeepSeek 提供底层模型框架,合作伙伴贡献场景与数据,最终通过模型迭代实现 " 越用越强 " 的正循环。

山姆 · 奥特曼对 AI 算力趋势的深刻观察,正体现在 DeepSeek 的算力创新中。DeepSeek-V3 的崛起——通过开源模式和技术创新,将训练成本压缩至 557.6 万美元(基于 H800 GPU 租赁成本计算),仅为同类闭源模型的 1/10 甚至更低。这种成本优势的背后,是算法、框架与硬件的协同优化:FP8 混合精度训练使计算效率提升 20% 以上,而 DeepSeekMoE 架构以及多头潜在注意力机制(MLA)架构,通过细粒度专家分配,让每个 Token 的激活参数仅占模型总规模的 5.5%(37B/671B)。

因为其较低的硬件成本投入,DeepSeek-R1 的发布一度使得英伟达股价大跌。但有趣的是,根据经济学杰文斯悖论,算力创新和大幅提升的背后,恰恰会带动高性能硬件(如英伟达 GPU)的需求并使其可能会呈现反弹式增长。

这与杰文斯悖论的核心逻辑相吻合:即技术进步提高了资源利用效率,降低了成本,进而刺激了需求增加,最终导致资源消耗总量的上升。

多说一句杰文斯悖论:英国经济学家杰文斯发现,19 世纪中叶,随着第一次工业革命工业化的进程,蒸汽机效率的提升虽然使煤的使用更加经济,但结果却是煤炭的需求飙升。这其实恰恰满足了均衡理论中的供需关系的改变:即价格降低,势必会带来需求量的大幅提升。产品便宜了,买家自然就会变多。

2 月 12 日,英伟达在博客中介绍了利用 DeepSeek-R1 和推理时扩展技术来自动生成优化 GPU 内核的最新研究成果,效果异常的好。英伟达表示,其对于 DeepSeek-R1 的最新进展及其应用潜力感到非常兴奋。

智能的线性增长能带来超指数级的社会经济价值。大模型技术的发展迭代,必将反哺整个人工智能和芯片行业的发展迭代速率。

这里我们来具体算一笔账吧。

账本落在经济上,大模型开源,各方怎么个互惠互利?

一句话:B 端(企业)得到 DeepSeek 的大模型赋能,C 端(用户)得到 B 端企业更好的服务,而 DeepSeek 则得到 B 端企业的算力和其服务的 C 端的用户和数据。

DeepSeek 的六万张显卡投入,这笔重要且巨大的开支,通过开源,DeepSeek 能够将这些成本分摊到整个生态系统中。一方面,开源吸引了大量的开发者和企业参与到模型的训练和优化中,降低了单个企业的投入成本,也就是降低了单个企业用于构建人工智能大模型的边际费用;另一方面,开源也促进了 DeepSeek 技术的快速迭代和升级,提高了模型的性能和准确性,从而降低了后期的维护成本。此外,通过与其他企业的合作,DeepSeek 还能够获得额外的收入来源,如技术授权、定制化服务等。

开源代码不仅降低了 DeepSeek 自身的开发成本,还为合作方带来了技术上的节省成本杠杆。通过共享代码和算法,DeepSeek 能够帮助合作方快速构建和优化自己的 AI 模型,避免了重复投入和研发周期。此外,DeepSeek 还提供了丰富的训练数据和工具,使得合作方能够更加高效地训练和优化模型。这些节省下来的成本,可以成为合作方进一步投入 AI 领域的动力。而这一切,也都来自 DeepSeek 的模型创新。

自此,不难理解关于 DeepSeek" 国运级应用 " 的评价了。

02

都在搞钱,那么 DeepSeek 的钱怎么搞?

众所周知,DeepSeek 目前是免费的,并成功倒逼一众人工智能大模型公司也随之宣布其产品未来免费供给 C 端。

但正如所有企业都需要营利,天下并没有免费的午餐。DeepSeek 的搞钱之道,依然是开源,开源,开源。

其具体逻辑,通过B 端开源技术降维与生态锁定:即用开源代码降低 B 端客户接入门槛,再用增值服务构建自身的壁垒。B 端免费算力与数据反哺:即用对 B 端的开源获取 B 端免费的算力;B 端的广泛覆盖又反哺 C 端的全方位覆盖,从而带来更多 token 样本(token 是数据在被模型处理之前或过程中被分割成的最小单元),大量开源得到的 token 样本加成会使 DeepSeep 自身模型算力成本大幅降低,算力效率大幅飞跃使自身模型更优化,从而又大幅降低自身模型开发维护升级成本。

这种" 算力 - 数据 - 模型 " 的三角循环,使得 DeepSeek 的单位训练成本降低,DeepSeek 也正像其无需人工进行标注的机器学习模型一样,可以达到自学习、自维护、自营收益的高效阶段。

具体来说,DeepSeek 通过向 B 端用户开源其技术和数据资源,吸引他们参与到模型的训练和优化中。这些 B 端用户可以是企业、研究机构或开发者团队等,他们拥有丰富的数据和场景资源,能够为模型提供更加多样化的训练样本和测试环境。通过向这些用户提供技术支持,DeepSeek 能够降低大模型的算力成本和提高用户的参与度。与此同时,这些 B 端用户在使用模型的过程中也会产生大量的数据和反馈,这些数据可以用于进一步优化模型和提高其性能,促进 DeepSeek 自身模型的快速迭代。这种向 B 端开源从而获取算力和数据的模式,不仅降低了 DeepSeek 的运营成本,还提高了其模型的准确性和泛化能力。

同时,随着 B 端用户的不断增加和深入参与,DeepSeek 能覆盖到更多的 C 端用户和应用场景。这些 C 端用户可以是个人消费者、中小企业或行业用户等,他们对于智能化需求日益增加。通过向这些用户提供智能化的服务和解决方案,DeepSeek 能够吸引他们参与到模型的训练和优化中,从而进一步增加 Token 训练样本的数量和多样性。这些 Token 训练样本可以用于进一步提高模型的准确性和泛化能力,从而形成 C 端对 B 端的反哺。

获得大量开源 Token 训练样本能够降低模型算力成本。DeepSeek 利用这些样本进行更加高效的模型训练和优化。这种 " 自迭代 " 使模型能够在较少的算力硬件资源下达到更好的性能表现。这对于 DeepSeek 来说自然是一笔巨大的成本节省。

当然,尽管 DeepSeek 在技术和应用方面已经取得了显著的进展,但目前仍然存在一些不完善之处。例如:对于某些复杂场景的处理能力有限等问题。

而通过开源策略的实施和生态系统的构建,DeepSeek 正在逐步解决这些问题。一方面通过吸引更多的开发者和企业参与到模型的训练和优化中来增加 token 样本的数量和多样性;另一方面通过与合作伙伴的开源合作来拓展应用场景和提高模型的泛化能力,充分提升模型处理复杂场景的能力,正如前文所提到。

DeepSeek 的商业模式,似乎正创新出一条 AI 公司的 " 自进化 " 之路。

DeepSeek 的商业模式,本质是一场 " 用模型养模型 " 的试验:通过开源吸引生态伙伴,降低获客与数据获取成本;再通过 B 端增值服务与 C 端数据价值变现,支撑算力扩容;最后,模型性能提升吸引更多合作伙伴,获得更多增值收益,形成无需人工干预的 " 数据 - 算力 - 收益 " 闭环。

这一路径的可行性已初现端倪:DeepSeek-V3 的后训练阶段仅消耗 5K GPU 小时,不到预训练的 0.2%,说明模型的自学习能力显著增强。若其能持续压缩迭代成本,六万张显卡的回本周期可能从行业平均的 3-5 年缩短至 18 个月。

然而,争议依然存在。但无论如何,DeepSeek 已证明:在 AI 的竞技场上,低成本与高性能并非零和游戏,而开源生态可能是打破算力垄断、提升算力效率的最优解。

参考文献:

DeepSeek-V3 技术报告解读 来源:机器学习算法那些事

行业资讯 | Sam Altman 凌晨发文,AI Agent 将重塑世界经济 来源:深圳市人工智能行业协会

DeepSeek R1 不编程就能生成 GPU 内核,比熟练工程师好,惊到了英伟达 来源:机器之心

全网首发 | PAI Model Gallery 一键部署阶跃星辰 Step-Video-T2V、Step-Audio-Chat 模型 来源:阿里云大数据 AI 平台

点击推荐」,锦鲤附身!

-   END -

最新话题:停车场机器人

欢迎关注 " 首席商业评论 " 视频号留言讨论!

投稿及内容合作|editor@chreview.cn

广告及商务合作|bd@chreview.cn

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

开源 奥特曼 经济学 英伟达 ai
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论