GPT-5.4 泄露了?
一觉醒来,这张图在上疯传:

在 OpenAI 编码助手 Codex 的代码拉取请求中,直接出现了 GPT-5.4 字样,包括用于快速模式的 /Fast 命令。
而且,这并不是大伙儿第一次发现 GPT-5.4 的踪迹了。
几天前,OpenAI 某开发人员在 GitHub 提交代码拉取请求,在版本判断条件的变更说明中意外泄露:
在尚在开发的 view_image_original_resolution 功能开关背后,为 view_image 接口添加了原始分辨率支持。
当该功能开关启用,且目标模型为gpt-5.4 或更新版本时……

之后 gpt-5.4 火速被改为 gpt-5.3-codex。
另外, Codex 模型下拉选项也曾出现过 GPT-5.4 模型:

种种迹象似乎都预示着,GPT-5.4 不远了。
除此之外,有传闻称 GPT-5.4 将搭载 200 万 Tokens 上下文窗口,能实现对超长篇内容的持久记忆。
网友指出,若要支撑 " 记住超长内容 + 长期不忘 " 的能力,模型推理时需要缓存的数据量会急剧膨胀,这本身就是一个极具挑战的技术难题。

而在泄露的代码拉取请求中,提到为 "GPT-5.4 或更新版本 " 新增了一项功能开关,可绕过传统图像压缩机制,直接保留全分辨率的原始图像字节数据。
这意味着 GPT-5.4 可能将具备像素级精准的视觉分析能力。
前端开发者、设计师与工程师终于能上传高精度 UI 原型或复杂工程原理图,模型可完整捕捉其中的每一处细节,彻底告别因图像压缩模糊而产生的视觉幻觉。

更有意思的是,有用户向 ChatGPT 5.2 询问其模型版本时,它竟开始一本正经地自称是 GPT-5.4 了……

当然,以网友们对奥特曼的了解,不排除这是一场炒作。
有网友认为:
核心需要重点关注的是,模型在整个上下文窗口范围内的准确率(召回率)。如果连内容都做不到精准,200 万 Tokens 的上下文窗口再大也毫无意义。
如果在 8-needle 测试中准确率能超过 90%,那才是真正的重大突破。

以及,大伙儿的目光都在齐刷刷盯着 DeepSeek V4 的发布。

参考链接:
[ 1 ] https://x.com/i/trending/2028300584164700282
[ 2 ] https://x.com/nicdunz/status/2028305161324507194
[ 3 ] https://x.com/kimmonismus/status/2028123002156531714
— 欢迎 AI 产品从业者共建 —
「AI 产品知识库」是量子位智库基于长期产品库追踪和用户行为数据推出的飞书知识库,旨在成为 AI 行业从业者、投资者、研究者的核心信息枢纽与决策支持平台。
一键关注 点亮星标
科技前沿进展每日见


