1300000000000000!
1.3 千万亿,一个令人咂舌的数字。这就是谷歌每月处理的 Tokens 用量。
据谷歌 " 宣传委员 "Logan Kilpatrick 透露,这一数据来自谷歌对旗下各平台的内部统计。
假如参考 DeepSeek API 文档中给出的标准:
1 个英文字符 ≈ 0.3 个 Token
1 个中文字符 ≈ 0.6 个 Token
那么在中文世界里,1.3 千万亿 Tokens 约 2.17 千万亿汉字。换算成对话量,一本《红楼梦》的字数在 70-80 万左右,相当于一个月内所有人和谷歌 AI 聊了近 30 亿本《红楼梦》的内容。
更可怕的是,假如按照谷歌最近几个月的增速来看,这个数字再往下恐怕……
5 月份,月均处理 480 万亿个;
7 月份,月均处理 980 万亿个;
10 月份,月均处理 1.3 千万亿个。
而且需要注意的是,不止谷歌看重 "Tokens 消耗量 " 这一指标,OpenAI 最近也首次公布了 30 家 Tokens 消耗破万亿的 " 大金主 "。
所以,为什么这个指标重要?它背后又意味着什么?
咱们接着看——
今年已连续暴涨,扛起千万亿大旗
以谷歌为例,它在这个指标上取得的最新成绩无疑是谷歌 AI 实力的具象化体现。
根据谷歌 CEO 皮猜在今年 I/O 大会上公布的一张图,一年前谷歌月均处理的 Tokens 数量才 9.7 万亿,如今却已突破千万亿级大关。
并且,从大会结束到现在,根据 Logan Kilpatrick(真实身份为谷歌 AI Studio 负责人)提供的内部数据,谷歌每月处理的 Tokens 用量还在连续暴涨,且暂未看到任何放缓迹象。
单看谷歌可能没感觉,那横向对比来看看呢?
根据艾伦 AI 研究所研究员 Nathan Lambert 撰写的一篇博客,目前国内外主要大厂的 Tokens 用量如下:
先说微软。根据微软今年公布的三季度财报,CEO 纳德拉曾表示:
本季度我们处理了超过 100 万亿个 Tokens,同比增长 5 倍,其中仅上个月就创下了 50 万亿个 Tokens 的记录。
据此分析,微软的 Tokens 处理能力还远够不上千万亿级别。而且你别忘了,微软早期就与 OpenAI 有过合作(负责托管 OpenAI 模型),起步比谷歌更早。
而现在,谷歌却在这一指标上将微软甩在了身后。
此外,像 OpenAI、国内的字节跳动、百度等公司,文章指出目前这些公司均达到了日均万亿 Tokens的处理量级。
不过这里要插一句,在刚刚过去的开发者日上,OpenAI 公布其 API 调用量为每分钟 60 亿 Tokens,这串数字换算成月度总量是 260 万亿 Tokens。
当然这还只是 API 的部分,如果加上 Tokens 消耗量更大的 ChatGPT 订阅业务,这一数字还会更大,但具体是多少目前则缺少官方数据。
整体而言,仅按公开可查的确切数据来看,谷歌在 " 千万亿 " 这一级确实是独一档的存在。
当然,Tokens 用量还只是谷歌 AI 实力的冰山一隅。
几乎同一时间,谷歌云还公布了一组最新数据,里面除了提到 1.3 千万亿这个数字,还表示:
超过 1300 万开发者使用谷歌模型进行开发;
Gemini 模型目前已生成 2.3 亿个视频和 130 亿张图像;
使用谷歌 AI 概览的用户达到 20 亿;
65% 的客户已经在使用谷歌的 AI 产品。
Anyway,即使抛开数据不谈,想必大家也对谷歌 AI 今年的崛起之势感受颇为明显。
别的不说,传说中的 Gemini 3 应该快了(坊间传闻原计划于 10 月 9 日上线,截至发稿前未正式官宣)。
Tokens 消耗量已成新的竞争指标
说完谷歌,最后回到"Tokens 消耗量 "这个指标本身。
为什么要看 Tokens 消耗量?
实际上,Token 作为单位能衡量的东西很多,包括预训练语料规模、上下文长度、推理长度……甚至是商业价值。
模型预训练用了多少 Token 语料,代表了它的基础知识储备含量。
模型能够理解多少 Token 的输入和输出,反映了它的理解能力。
此外,Token 还是大模型推理算力的计量单位。比如底层芯片厂商如今都会通过 " 每秒生成 Token 的数量 " 来证明自家产品的硬件能力。甚至如果有的模型参数未公开,也能通过它的 Token 生成速度来倒推模型规模(在相同硬件上即可推算)。
当然更重要的是,Token 也成为大模型 API 的定价单位。一旦使用平台的 Token 数量越多,厂商能够获得的商业价值以及行业影响力自然也越多。
值得一提的是,今年年初,行业围绕 Tokens 消耗量还诞生了一条新的价值红线——不看融资估值独角兽,看 10 亿 Tokens 日均消耗。
作为 " 入门级 " 检验标准,10 亿 Tokens 日均消耗背后意味着:
第一,它代表大模型应用落地新趋势,企业拥抱大模型红利,要朝着这一数字前进。
第二,它成为大模型应用落地新阶段的门槛,AI 业务真正跑通了吗?需求真实存在吗?都可以此为参考系找回答。
第三,日均 10 亿 Tokens 消耗也只是大模型落地 " 入门级水准 ",单客户百万亿、千万亿 Tokens 消耗是更值得期待的星辰大海。
而如今,远超日均 10 亿 Tokens 消耗,谷歌已经为所有玩家树立了新的标杆。
不知道下一个 " 千万亿玩家 " 又会是谁呢?
参考链接:
[ 1 ] https://x.com/OfficialLoganK/status/1976359039581012127
[ 2 ] https://x.com/GoogleCloudTech/status/1976333515772809266
[ 3 ] https://x.com/demishassabis/status/1948579654790774931
[ 4 ] https://www.interconnects.ai/p/people-use-ai-more-than-you-think?hide_intro_popup=true
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
年度科技风向标「2025 人工智能年度榜单」评选报名开启啦!我们正在寻找 AI+ 时代领航者 点击了解详情
❤️ 企业、产品、人物 3 大维度,共设立了 5 类奖项,欢迎企业报名参与
一键关注 点亮星标
科技前沿进展每日见
登录后才可以发布评论哦
打开小程序可以发布评论哦