撰文 | 郝 鑫
编辑 | 王 潘
在大模型领域,Tokens 是衡量文本处理与计算成本的核心计量单位。
行业发展通常遵循从概念验证到规模化应用的路径,因此,在一段时间内,Tokens 消耗量被视为衡量大模型行业进展与市场活跃度的关键指标。
火山引擎总裁谭待在 "2025 年冬季 FORCE 原动力大会 " 现场表示,模型只有在被调用的时候才能发挥价值,所以越有价值的模型调用次数就越多。
最新数据显示,截止到今年 12 月,豆包大模型日均调用数已超过 50 万亿,自发布至今已经实现了 417 倍增长。这一数据,仅次于 OpenAI 和 Google。
但如果仅把目光停留在消耗总量,把 Tokens 视作消耗算力的成本单位,就很容易忽视大模型发展中 " 质 " 的问题。
某行业人士透露,在 Tokens 规模成为行业指标的背景下,部分公司通过调整统计口径等方式,使得调用量数据大幅提升,存在一定 " 水分 "。此外,不少 Tokens 消耗实际来自免费试用或简单搜索场景,真实商业转化有限,整体呈现出 " 虚胖 " 态势。
与此不同,火山引擎在关注 Tokens 调用规模的同时,更强调其背后的 " 含金量 " ——即 Tokens 是否真正用在了企业核心业务场景、是否带来实际价值。
谭待表示,2025 年已有超过 100 万家企业和个人通过火山引擎使用大模型服务,覆盖百余行业。

其中,Tokens 消耗超万亿的客户已超过百家,这些高价值客户主要来自互联网、智能制造、消费电子、汽车等产业。其 Tokens 消耗多集中于产品研发、生产流程优化、客户服务升级等深度业务环节,真正推动了大模型技术与产业需求的紧密结合。
因此,火山引擎所关注的不仅是 " 用了多少 ",更是 " 用在何处、产生何效 ",这背后离不开火山引擎上下对 Tokens 的精准认知。体现在行动上,火山引擎也是国内最早把 Tokens 作为业务落地考核指标的云厂商。
为什么 Tokens 调用量在 AI 时代如此重要?火山引擎作为云计算市场的后来者,为什么能以 Tokens 的调用量为支点,迅速覆盖千行百业,率先完成 Tokens 价值转化?
Tokens 经济时代
大模型技术催生了对 " 智能 " 的新需求,常常表现为对通用认知能力规模化、服务化的调用。
对外输出大模型能力依赖于强大的云计算架构,但这种新兴的 " 智能交付 " 逻辑,与传统的 " 资源交付 " 逻辑存在着矛盾。
传统由 IaaS、PaaS、SaaS 组成的分层解耦云架构中,本质是将物理资源虚拟化、服务化后进行分层交付。用户购买的是容量和时长,量化为消耗多少算力,至于用这些能力能做什么,云厂商并不关心。
有人认为,这种以资源为驱动的架构,与智能的逻辑背道而驰,在 AI 时代反而会阻碍 AI 应用的创新速度。因此,以火山引擎为代表的厂商,提出了 "AI 云原生架构 " 的概念。
AI 云原生架构的颠覆在于,其核心设计目标是为了高效、大规模地生产和消费 " 智能 "。
按照火山引擎的理解,新架构中,模型是软件的核心,MaaS 是使用模型的最佳方式,算力以 Tokens 的方式转换为智能;同时围绕 Agent 开发和 Agent 运营,云平台和中间件进一步把 Tokens 组装成 Agents,并实现 Agent 和现有工作流、Agent 和 Agent 之间的智能互通。
类比工业时代以 " 千瓦时 " 度量电力消耗,互联网时代以 "GB" 计算数据流量,AI 云原生以 Tokens 作为最小单位来衡量智能规模,具有自然的延续性与合理性。这意味着,无论底层用了多少算力、多复杂的模型,最终用户获得的价值可直观地量化为 " 处理了多少 Tokens"。
在这样的思考下,火山引擎升级了 AI 云原生全栈服务:在 MaaS 服务上,推出企业自有模型的推理代工服务、强化学习平台;面向 Agent 开发,发布企业级 AI Agent 平台 AgentKit;面向 Agent 运营,发布 HiAgent"1+N+X" 智能体工作站,推动 Agent 大规模落地。

火山引擎在市场早期,便灵敏地识别出 Tokens 是连接模型、客户与商业化的通用度量衡。先一步认识到,云计算的商业模式将从出租算力转变为售卖智能能力,Tokens 消耗量直接对应其核心收入。
基于此,火山引擎将竞争的焦点转移到了:谁能提供更强大、更便宜的模型?如何以更低的算力成本生成更多 Tokens?以及如何客户在平台上消耗更多 Tokens?
在内部,更是通过将 Tokens 调用量内化为考核 " 指挥棒 ",驱动整个组织从技术、产品到销售,都围绕 " 如何帮助客户高效消耗更多有价值 Tokens" 展开,从而形成落地的闭环。
事实证明,火山引擎 Tokens 策略行之有效。根据 IDC 报告,火山引擎在中国的公有云大模型的服务调用量稳居第一,市场份额从去年的 46.4% 提升到今年的 49.2%。也就是说,在中国公有云上每产生的两个 Tokens 就有一个是火山引擎。这一统计口径,指的是对外部客户提供的大模型服务调用量,不包含自有业务,更能反映出产业端的实际应用情况。

当 Tokens 成为大模型时代通用的度量单位后,其流动数据便具有堪比 " 用电量 "" 流量 " 一般的指向性意义。换而言之,Tokens 流向哪里,哪里便是产业发展方向。
例如,如果流向 " 文生视频 " 模型的 Tokens 暴增,就表明该应用正处爆发期;如果流向 " 代码生成 " 的 Tokens 持续稳定,表明开发者工具已进入生产级采纳阶段;Tokens 消耗在推理端比例大于训练段,则从侧面反映出行业从模型研发走向了规模化应用。
更进一步,若观察视角跳出 Tokens 消耗量的堆砌,而作为衡量 AI 真实生产力和商业渗透率的指标。那每一次的 Tokens 调用都对应一次实际的服务交付与价值创造,这使得 Tokens 的流向成为观测 AI 产业脉搏最直接的 " 心电图 "。
火山 " 上 " 车
以火山引擎披露为例,Tokens 大量流入到了汽车、智能终端、金融、教育、消费、游戏、泛互联网等行业。
汽车领域是近几年火山引擎着重发力的领域之一。数据显示,火山引擎助力超九成主流车企进行 AI 升级,大模型覆盖了从汽车云、智能座舱、企业应用、汽车出海、具身智能等全流程场景。
在此次大会中,火山引擎在 AI 安全领域新推出了 "MaaS on AICC" 的服务,其核心是让企业能够在加密环境下进行模型推理任务,提升安全指数。
上汽大众是其中一个案例,通过使用 MaaS on AICC 服务,对内部 5 万多份机密知识数据实现了安全保护。由此,上汽大众为上千家经销商,上万名销售人员提供了智能知识服务。相比私有化的部署方案,火山引擎的新方案,帮助他们节约了 60% 以上的成本,还降低了 AI 应用创新的门槛。
火山引擎所合作的企业中,既包括了宝马、奔驰、奥迪、比亚迪这类传统车企,又涵盖了特斯拉、" 蔚小理 " 这类的新势力。豆包大模型 " 上车 " 几乎成为了每家车企的标配,在 2025 年新车智能座舱搭载量位居行业第一。
我们了解到,火山引擎在落地行业中逐步建立起了基础模型、C2B 和场景经验迭代的优势。
首先技术的底气来自于不断迭代更新的豆包大模型能力,模型上限还在不断突破,每一次升级都有可能带来直接的体验提升。
在火山引擎内部有一个理念叫 " 基模的共同搭建 ",即 To C 和 To B 底层共用一套基础模型。这样一来,在 C 端产品积累的产品经验和 know how,可以直接在 B 端服务中去复用,以此来提升交付体验。豆包大模型 " 上车 " 速度如此之快,背后离不开在豆包 AI 助手上的持续打磨,相应地豆包的名气也带给了合作车企的曝光度。
火山引擎能够像 " 滚雪球 " 般地迅速覆盖行业,离不开其打造合作标杆的策略。仅在车企领域,火山引擎就与上汽荣威推出了搭载豆包深度思考模型的 AI 智舱,与宝马探索 AI 汽车营销创新,与极氪汽车打造企业级 " 数字洞察智能体 " 等。
火山引擎相关人士告诉我们," 在与车企的合作过程中,我们会积累起不同车企的用户交互体验经验和场景落地经验,最终把这些都转化为整个火山引擎的 To B 交付产品经验 ",正是有了不断地经验迭代,才能在下一次新合作中命中客户的需求点。
To B 的业务充满了复杂性,整体上时间紧、任务重,在合作中既要厘清双方的职责所在,又要在关键问题上达成一致,最后能上线一款融合双方优势的产品,难度系数远比想象中高。
上汽荣威的智能座舱是火山引擎打造的标杆型合作案例,该款车型首个搭载了 " 豆包深度思考模型 ",双方共同定义了 " 带推理功能 " 的车端助手产品。在这个合作中,车企负责做产品体验的定义和大方向上的把控,火山引擎主要负责大模型赋能交互其中一环的体验设计。

在上汽荣威案例里面,涉及了大模型车控、大模型闲聊和大模型联网问答等诸多场景。从获得用户指令到响应需求,火山引擎把整个过程拆解为了模型的理解、推理和表达三步。用户提出指令后,模型先得理解清楚意图,然后针对用户行为作出响应,最后呈现出来的是打开音乐、设置目的地。
针对具体的场景化需求,火山引擎提出了很多自己的思考。为了满足车主的个性化需求,火山引擎针对每次固定不变的东西,设定冷启动推荐和学习记忆。用户一方面可以接受模型提出的建议,另一方面也能纠正模型,模型会记录下来用户的需求,在每次交互中不断迭代,离理解用户更近一点。
火山引擎相关人士还透露,下一代产品将会构建大模型 " 一对 N" 的关系。国内用车场景有着强烈的家庭属性,升级到 " 一对 N" 功能后,模型就能清楚地知道每个人的身份以及彼此间的关系属性。
Tokens 流向千行百业
火山引擎服务客户所产生的 Tokens 还在不断扩大,其他行业的案例还有很多。
在智能终端领域,火山引擎已与全球 Top 10 手机厂商中的 9 家建立了深度合作关系,截至目前为止,豆包大模型已覆盖超过 5 亿台终端设备。
其核心逻辑在于,以豆包大模型为统一基座,为手机厂商提供模块化、可定制的 AI 能力菜单,而近期备受关注的 " 豆包手机助手 " 正是该能力在终端体验上的实验性产品,做出了 " 天花板 " 级示范。

合作成功的关键在于火山引擎提供的并非单一产品,而是灵活的 " 能力组合 "。厂商可按需接入多模态模型、联网搜索插件、角色化智能体及端云协同安全方案等,从而快速打造具备 AI 搜索、屏幕问答、跨应用操作等特性的智能助手。例如,vivo、OPPO 等品牌已基于此实现了 AI 意图搜索、圈选识屏、多模态交互等创新功能。
在金融行业,火山引擎提供营销、投研、信贷等智能体建设方案,已服务中信证券、国泰海通、华泰证券等八成头部券商,及招商银行、民生银行等八成系统重要性银行。
华泰证券基于豆包大模型打造了国内证券行业第一个 AI 原生应用—— "AI 涨乐 "。在豆包大模型的加持下,解决了功能堆砌的问题,AI 得以深度融入选股、分析、交易等核心场景中,帮助用户执行选股、盯盘、下单、提醒等一系列复杂的操作。
进一步,搭配豆包的播客模型,AI 涨乐还可以根据用户兴趣和需求生成个性化对话的 AI 播客,让用户在通勤路上以听的方式,就能获得最新的市场信息。一套 " 组合拳 " 下来,AI 涨乐不再是一个被 " 闲置 " 的应用,而是成为高粘性的投资理财工具。
对于合作,火山引擎的态度更加开放,一个典型例子就是客户不仅能选择豆包大模型,还能接入 DeepSeek 等开源模型。火山引擎认为,围绕客户的需求解决问题才是关键。基于此,火山引擎目前的商业模式也更多元化。
轻量化模式,就是火山引擎方提供大模型 API,客户直接调用,自己来做产品包装研发,这种模式按 Tokens 量付费即可,比较容易计算。
第二种,如果有客户想用使用火山引擎的一些标准化产品,这里面可能就涉及一些定制费用和使用授权费用。
第三种,在一些新兴场景中,火山引擎更倾向于深度的战略合作,聚焦在双方怎么能够相互赋能,共同打磨出标杆型产品。
火山引擎曾凭借一己之力推动大模型价格进入 " 厘时代 ",为企业降本增效的服务理念贯穿始终。去年 5 月份,火山引擎平台上的主流模型降价 99%。今年,火山引擎首创按模型思考长度、分段计费的方式,为企业节约成本。
刚过去的发布会上,针对企业想跑更多新模型的心态,火山引擎又推出了 "AI 节省计划 "。该计划涵盖了豆包大模型和各类三方开源模型,凡是参与的企业,各个部门都能享受统一的价格优惠,且不同模型之间用量可以互相累计。以此计算下来,最高可节省 47% 的使用成本。
Tokens 不止,流向千行百业,火山引擎正在以开放、灵活的姿态,成为 AI 与产业深度融合的关键推动者。

微信号|TMTweb
公众号|光子星球
别忘了扫码关注我们!


登录后才可以发布评论哦
打开小程序可以发布评论哦