快科技 3 月 14 日消息,上下文长度近来成为各大模型的升级重点,128/256K 已经不太够用,拥有目前公认最强编程模型的 Anthropic 今天宣布将两款 Claude 模型升级 1M 上下文,而且加量不加价。
Claude Opus 4.6 和 Sonnet 4.6 今天全面开放了 1M 上下文,而之前超过 200K 上下文的请求需要加入 beta 标头,现在不需要了,请求会自动处理,无需更改代码。
不仅上下文能力大幅提升,媒体能力也同样提升了限制,是之前的 6 倍,每条请求可以支持 600 张突破或者 PDF。
而且这一次是加量不加价,上下文是一个价格,每个长度都有完整的费率限制。

不过 Claude Opus 4.6 和 Sonnet 4.6 整体的价格还是目前最贵的,前者 1 百万 Token 的输入、输出价格分别是 5、25 美元,后者是 3、15 美元,这样的价格很多程序员都觉得肉疼,写代码也不敢全部使用这两个模型,要搭配其他廉价模型一起用。
最后,即便升级了 1M 上下文,Claude Opus 4.6 和 Sonnet 4.6 的能力几乎没有受到影响,官方公布的测试显示,Opus 4.6 在 MRCR v2 上的得分为 78.3%,在相同上下文长度的前沿模型中位居最高。

最最后要说一句,DeepSeek 在 2 月份发布的测试模型中也升级了 1M 上下文,虽然实际表现很不错,但随着美国的闭源大模型也普遍支持 1M 上下文,这方面已经没啥惊喜了,外界对 DeepSeek 的能力期待值越来越高。
此前的传闻中,DeepSeek V4 的一大升级就是编程能力提升,还有爆料说能达甚至超过 Claude,但这个目标对开源大模型来说有点高,毕竟 Claude 是 Anthropic 砸了那么多钱烧出来的,而且全球有那么多开发者使用,获得的数据反馈还在一步步优化 Claude 大模型,DeepSeek 除非有全新的技术突破,否则很难在这方面超越 Claude。


登录后才可以发布评论哦
打开小程序可以发布评论哦