快科技 11 月 8 日消息,在 AI 大模型这个领域,美国公司选择了封闭路线,投资巨大,而国产大模型大多选择了开源,此前 DeepSeek、Qwen 都各领风骚,现在月之暗面的 Kimi K2 Thinking 又封王了。
Kimi K2 Thinking 是 K2 家族中的思考大模型,在多项基准测试中表现达到 SOTA 水平,超越 GPT-5,同时 Agentic 搜索、Agentic 编程、写作和综合推理能力等方面也取得全面提升。
发布两天来,Kimi K2 Thinking 已经登顶 HuggingFace 抱抱脸榜单,而且国外网友好好评不断,顺带着都在吐槽 OpenAI 等公司的封闭模型问题。

在人类终极考试( HLE)这项超难基准上,Kimi K2 Thinking 取得 44.9% 的分数,超过了 Grok4、GPT-5、Claude 4.5 等先进模型,如果是 Kimi K2 Thinking Heavy,分数还可以进一步达到 51%。
对此 HuggingFace 联合创始人 Thomas Wolf 也发表了对 Kimi K2 Thinking 的评价,称我们正在见证又一次 DeepSeek 时刻,开源软件再次超越闭源软件,今后是不是每隔几个月就会发生一次这种情况?
然而 Kimi K2 Thinking 惊艳的地方不仅在于能力多强大,更关键的一点是成本很低,API 价格是百万 token 输入 0.15 美元(缓存命中)/0.6 美元(缓存未命中),每百万 token 输出 2.5 美元,比 GPT-5 的价格(每百万 token 输入 1.25 美元、输出 10 美元)低一个数量级。
之所以这么低,跟它的训练成本大幅降低有关,据据知情人士透露,Kimi K2 Thinking 的训练成本为 460 万美元,要知道之前的成本标杆 DeepSeek V3 模型也花了 560 万美元,现在又降低了至少 10% 成本。
如果对比国外的大模型,那就更不是一个量级的了,OpenAI 的 GPT-3 花费了数十亿美元,谷歌、微软、XAI 等公司的大模型也一样是烧钱烧出来的,光是 GPU 费用就远超国内公司的投入。



登录后才可以发布评论哦
打开小程序可以发布评论哦