科创板日报 05-21
大模型价格战卷至“厘时代”!阿里云通义千问主力模型降价97%
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

《科创板日报》5 月 21 日讯(记者 黄心怡) 今日,阿里云抛出重磅炸弹,通义千问 GPT-4 级主力模型 Qwen-Long,API 输入价格从 0.02 元 / 千 tokens 降至 0.0005 元 / 千 tokens,即 0.5 厘 / 千 tokens,直降 97%。这意味着,1 块钱可以买 200 万 tokens,相当于 5 本《新华字典》的文字量。

值得一提的是,本月智谱 AI、字节跳动的大模型也都纷纷宣布降价。其中,字节的豆包主力模型的定价为 0.0008 元 / 千 Tokens,即 0.8 厘 / 千 tokens,被认为带动大模型定价进入了 " 厘时代 "。

业内分析认为,此轮大模型降价潮,是各家厂商希望进一步抢占市场,从而加速 AI 应用的商业化落地。

▍ 9 款商业化及开源系列模型降价

Qwen-Long 是通义千问的长文本增强版模型,性能对标 GPT-4,上下文长度最高 1 千万。除了输入价格降至 0.0005 元 / 千 tokens,Qwen-Long 输出价格也降 90% 至 0.002 元 / 千 tokens。相比之下,国内外厂商 GPT-4、Gemini1.5 Pro、Claude 3 Sonnet 及 Ernie-4.0 每千 tokens 输入价格分别为 0.22 元、0.025 元、0.022 元及 0.12 元。

通义千问本次降价共覆盖 9 款商业化及开源系列模型。不久前发布的通义千问旗舰款大模型 Qwen-Max,API 输入价格降至 0.04 元 / 千 tokens,降幅为 67%。

就在不久前,智谱 AI、字节跳动旗下火山引擎也纷纷宣布了降价。5 月 11 日,智谱 AI 大模型的新注册用户获得额度从 500 万 tokens 提升至 2500 万 tokens,个人版 GLM-3Turbo 模型产品的调用价格从 5 元 / 百万 tokens 降低至 1 元 / 百万 tokens。GLM-3 Turbo Batch 批处理 API 也便宜了 50%,价格为 1 元 /200 万 tokens。

15 日,火山引擎宣布豆包 Pro 32k 模型定价是 0.8 厘 / 千 tokens。此外,豆包 Pro 128k 模型定价是 5 厘钱 / 千 tokens。

对于此轮降价潮,不少业内分析指出,大模型已经开始从 " 卷大模型技术 " 向 " 卷大模型应用 " 转变,但推理成本过高依然是制约大模型规模化应用的关键因素

在武汉 AI 智领者峰会现场,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光称:"阿里云这次大幅降低大模型推理价格,就是希望加速 AI 应用的爆发。我们预计 2024 年大模型 API 的日调用次数有望突破 100 亿。"

刘伟光判断,不管是开源模型还是商业化模型,公共云 +API 将成为企业使用大模型的主流方式。" 云上调用成本远对于私有云部署。在追求更大尺寸的模型时,企业要面对 GPU 采购、软件部署、网络费用、电费、人力成本等等。随着大模型的规模变大,对于私有化部署的成本和复杂性会越来越高。去年还有不少企业考虑购买上百台 GPU 服务器,来搭建计算网络集群。但今年很多公司已经放弃了自建百台集群的大模型研发

百度创始人李彦宏也在业绩会表示," 模型推理是最重要的长期机会之一,这将成为云业务的关键驱动力。4 月,文心大模型 API 日调用量为 2 亿次。去年 12 月时,该数据为 5000 万次。

▍谁能抢抓模型推理的市场机遇?

谈及通义千问的这次降价幅度,多名大模型行业专家在接受《科创板日报》记者采访时评价," 力度很大 "、" 很便宜了 "。

不过,也有云计算架构师向记者指出,实际作用还是要看 " 疗效 "

" 市面上大模型太多了。疗效好,多少都不贵;如果疗效不好,多少都是贵。"

记者了解到,目前头部企业都会选择多家模型接入,在不同应用场景选择更合适的模型,这意味大模型厂商之间的竞争十分激烈。

比如,小米在接入文心大模型 API 的同时,小米旗下的人工智能助手 " 小爱同学 " 也宣布与阿里云通义大模型展开合作,强化其在图片生成、图片理解等方面的多模态 AI 生成能力。

在刚刚发布的今年一季度财报中,阿里、百度均提及了生成式 AI 对收入增长带来的正面影响。百度智能云收入为 47 亿人民币,同比增长 12%,其中生成式 AI 带来的收入占比 6.9%。测算下来,百度的生成式 AI 一季度收入约为 3.24 亿元

在阿里财报电话会上,阿里集团 CEO 吴泳铭表示,预计今年下半年云业务将恢复双位数增长,而收入增长主要来自 AI 新产品的驱动。对于大模型的未来目标,吴泳铭称," 我们将会把 " 通义千问 " 大模型与阿里云的先进 AI 基础设施进行软硬件协同优化,来为中国的开发者或者中国的企业提供 AI 能力非常强、性价比非常高的 AI 大模型推理服务。"

▍开源闭源路线之争

值得一提的是,百度和阿里在大模型是否开源上选择了截然不同的路线。

4 月底,阿里云开源了 1100 亿参数模型 Qwen1.5-110B。迄今通义开源大模型的累计下载量超过了 700 万。

" 通义的开源模型在中文世界的开发者使用最广泛,当开发者使用阿里云的开源模型,需要把应用部署到线上的时候,就会自然而然地选用阿里云的服务。" 吴泳铭称。

百度方面,李彦宏则多次宣传闭源的优势。在 Create 2024 百度 AI 开发者大会上,他曾直言 " 开源模型会越来越落后 "。5 月 15 日,百度还发布公告称:" 闭源大模型 + 公有云 " 已经成为全球 AI 市场的主流趋势。" 闭源大模型 + 公有云 " 能实现比开源大模型性能更好、成本更低的综合效果,并以此促进 AI 应用生态繁荣。

当下,国际厂商在开闭源路线上各有侧重。比如 OpenAI 的 GPT-4 模型就是采用闭源模式,而 Meta 选择完全开源。其余大模型公司则将模型 " 低配版 " 开源,更高参数量的模型闭源。比如,谷歌 Gemini 多模态模型闭源,今年 2 月宣布开源单模态 Gemma 语言模型。

IDC 中国研究总监卢言霞称,未来到底是开源还是闭源。跟头部企业的选择有很大关系。这个领域目前还是有很大不确定。

一位大模型青年学者对记者表示,开源和闭源路线各有特色,但开源肯定更为促进行业发展。

艾瑞咨询在一份 AIGC 产业报告中分析,大模型技术前沿厂商出于打造自身先进模型壁垒、构建技术护城河的商业考虑,会选择闭源或逐步从开源走向闭源,以保证模型的先进性、稳定性、安全性。而开源可以促进广大开发者和研究者的创新,从商用角度加速大模型的商业化进程与落地效果。艾瑞咨询认为:" 未来,开源和闭源的大模型会并存和互补。"

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

阿里云 ai 通义千问 字节跳动 开源
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论