亿邦动力网 05-21
通义千问加入价格战:主力模型降价97% 1元买200万tokens
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

【亿邦原创】5 月 21 日,阿里云抛出重磅炸弹:通义千问 GPT-4 级主力模型 Qwen-Long,API 输入价格从 0.02 元 / 千 tokens 降至 0.0005 元 / 千 tokens,直降 97%。这意味着,1 块钱可以买 200 万 tokens,相当于 5 本《新华字典》的文字量。这款模型最高支持 1 千万 tokens 长文本输入,降价后约为 GPT-4 价格的 1/400,击穿全球底价。

Qwen-Long 是通义千问的长文本增强版模型,性能对标 GPT-4,上下文长度最高达 1 千万。

除了输入价格降至 0.0005 元 / 千 tokens,Qwen-Long 输出价格也直降 90% 至 0.002 元 / 千 tokens。相比之下,国内外厂商 GPT-4、Gemini1.5 Pro、Claude 3 Sonnet 及 Ernie-4.0 每千 tokens 输入价格分别为 0.22 元、0.025 元、0.022 元及 0.12 元,均远高于 Qwen-long。

通义千问本次降价共覆盖 9 款商业化及开源系列模型。

不久前发布的通义千问旗舰款大模型 Qwen-Max,API 输入价格降至 0.04 元 / 千 tokens,降幅达 67%。Qwen-Max 是目前业界表现最好的中文大模型,在权威基准 OpenCompass 上性能追平 GPT-4-Turbo,并在大模型竞技场 Chatbot Arena 中跻身全球前 15。

不久前,OpenAI 的 Sam Altman 转发了 Chatbot Arena 榜单来印证 GPT-4o 的能力,其中全球排名前 20 的模型中,仅有的三款中国模型都是通义千问出品。

业界普遍认为,随着大模型性能逐渐提升,AI 应用创新正进入密集探索期,但推理成本过高依然是制约大模型规模化应用的关键因素。

在武汉 AI 智领者峰会现场,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光表示:" 作为中国第一大云计算公司,阿里云这次大幅降低大模型推理价格,就是希望加速 AI 应用的爆发。我们预计未来大模型 API 的调用量会有成千上万倍的增长。"

刘伟光认为,不管是开源模型还是商业化模型,公共云 +API 将成为企业使用大模型的主流方式,主要有三点原因:

一是公共云的技术红利和规模效应,带来巨大的成本和性能优势。

阿里云可以从模型自身和 AI 基础设施两个层面不断优化,追求极致的推理成本和性能。阿里云基于自研的异构芯片互联、高性能网络 HPN7.0、高性能存储 CPFS、人工智能平台 PAI 等核心技术和产品,构建了极致弹性的 AI 算力调度系统,结合百炼分布式推理加速引擎,大幅压缩了模型推理成本,并加快模型推理速度。

即便是同样的开源模型,在公共云上的调用价格也远远低于私有化部署。以使用 Qwen-72B 开源模型、每月 1 亿 tokens 用量为例,在阿里云百炼上直接调用 API 每月仅需 600 元,私有化部署的成本平均每月超 1 万元。

二是云上更方便进行多模型调用,并提供企业级的数据安全保障。

阿里云可以为每个企业提供专属 VPC 环境,做到计算隔离、存储隔离、网络隔离、数据加密,充分保障数据安全。目前,阿里云已主导或深度参与 10 多项大模型安全相关国际国内技术标准的制定。

三是云厂商天然的开放性,能为开发者提供最丰富的模型和工具链。

阿里云百炼平台上汇聚通义、百川、ChatGLM、Llama 系列等上百款国内外优质模型,内置大模型定制与应用开发工具链,开发者可以便捷地测试比较不同模型,开发专属大模型,并轻松搭建 RAG 等应用。从选模型、调模型、搭应用到对外服务,一站式搞定。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

阿里云 ai 通义千问 chatbot 开源
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论