量子位 前天
智谱运气是差一点点,视觉Token研究又和DeepSeek撞车了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

这不巧了吗……智谱和 DeepSeek,又双叒撞车了。

太卷了,DeepSeek-OCR 刚发布不到一天,智谱就开源了自家的视觉 Token 方案——Glyph

既然是同台对垒,那自然得请这两天疯狂点赞 DeepSeek 的卡帕西来鉴赏一下:

或许你也会对我们的工作感兴趣。

发论文就发论文,怎么还争上宠了。(doge)

网友调侃 be like:AI 界也有自己的霸总爱情片。

智谱也做视觉压缩

是的,与 DeepSeek-OCR 一样,智谱这篇论文的目标同样也是通过视觉的方式,破解当下 LLM 上下文冗长的难题。

激增的上下文

随着 LLM 能力一路狂飙,用户和厂商对于长上下文的需求也越来越迫切。

毕竟,不论是长文档分析、代码审查,还是多轮对话,模型可不能像金鱼那样看过就忘。要让它们真正靠谱地执行任务,就得有足够稳定的「工作记忆」。

但扩充上下文可是个相当吃力不讨好的工作。

举个例子:如果把上下文从 50K 扩到 100K,算力的消耗大约会变成原来的四倍。

原因在于,更多的 Token,就意味着模型需要记住更多的激活值、缓存、注意力权重,这些东西在训练和推理阶段都是靠真金白银堆出来的。

如果能实实在在地提升性能,多花点钱也认了。

可最让人心痛的是,砸了重金扩上下文,模型还不一定更聪明

IBM 的研究就指出,光靠 " 多塞 Token" 并不能保证模型表现线性提升。

相反,当输入太长、信息太杂时,模型反而可能陷入噪声干扰和信息过载,越看越糊涂。

关于这类问题,目前大概有三种比较主流的解决方案:

第一类,是扩展位置编码。

在 Transformer 结构里,模型并不知道输入的先后顺序,因此要给每个 Token 加上 " 位置编码 ",告诉模型这是谁先谁后。

而扩展位置编码的做法,就是把原有的位置编码区间直接向外延伸。

比如,把 0~32K 的位置区间 " 插值 " 到 0~100K,这样,模型就能在工作时接受更长的输入,而不必重新训练。

虽然如此,这并没有解决推理成本的问题,模型在推理阶段依旧要遍历所有上下文。

而且,模型虽然能继续读下去,但由于它在训练中从未见过如此长的上下文,现在逼着人家读肯定表现不会好。

第二类,是改造注意力机制。

既然上下文变长了,那就让模型「读」快一点,比如用稀疏注意力、线性注意力等技巧,提高每个 Token 的处理效率。

但再怎么快,账还是那本账,Token 的总量没有减少,如果上下文都到了几十万,多高的效率也顶不住。

第三类,是检索增强 RAG 路线。

它通过外部检索先挑重点、再喂给模型,输入变短了,推理轻快了。

但大家也知道,RAG 的输出结果肯定不如模型基于训练数据的回答,而且还会因多出来的检索步骤拖慢整体响应。

踏破铁鞋无觅处,上下文真是个令人头疼的问题。

看「图」说话

为了解决这个问题,研究团队提出了一种新范式——Glyph

大道至简:既然纯文本的信息密度不够,那就把它放进图片里。

普通 LLM 处理文本时,是把句子拆成一个个独立的 Token 依次输入,效率很低。

比如,如果一句话能分成 1000 个 Token,模型就得老老实实算 1000 个向量,还要在它们之间做注意力计算。

相比之下,Glyph 不会逐字阅读,而是先把整段文字排版成图像式的视觉 Token,再把这张「截图」交给 VLM 去处理。

之所以要这么做,是因为图像能承载的信息密度远高出纯文本,仅需一个视觉 Token 就能容纳原先需要好几个文本 Token 的内容。

借助这种方式,即便是一个上下文固定的 VLM,无需借助稀疏注意力、RAG 等工具,也能轻松吃下足以「撑死」LLM 的超长文本。

举个例子:小说《简 · 爱》大约有 240K 的文本 Token,对一台上下文窗口只有 128K 的传统 LLM 来说,只能塞进去一半。

这种情况下,如果你想问一些涉及到故事跨度比较大的问题,传统模型多半答不上来。

比如:女主离开桑菲尔德后,谁在她陷入困境时帮助了她?

但如果使用 Glyph,把整本书渲染成紧凑的图像,大约只需要 80K 视觉 Token。

这样一来,同样是 128K 上下文的 VLM 就能轻松看完整部《简 · 爱》,对故事脉络心中有数,也能从更大的全局视角来回答问题。

这么立竿见影的效果,是怎么实现的呢?

Glyph 的训练流程主要分为三个阶段:

第一阶段:持续预训练(Continual Pre-training)

这一阶段的目标,是让模型把自己的长上下文理解能力从文字世界迁移到视觉世界。

具体而言,研究团队先尽可能多地将海量长文本渲染成不同风格的图像,把 VLM 扔在各式各样排版、字体、布局中 " 读图识文 ",以便训练出更强的泛化能力。

在这个过程中,模型会不断学习如何把图像中的文字信息,与原始文本语义对齐。

第二阶段:LLM 驱动的渲染搜索(LLM-driven Rendering Search)

虽然多样化的渲染方式能提升模型的泛化能力,但在实际应用中,效率和精度必须兼顾。

文字如何转成图,决定了压缩率可读性之间的微妙平衡。

字体太大、排版太松固然不好,这样做信息密度太低,有悖于视觉 Token 的初衷。

不过,过于追求信息密度也不是好事。

字体小、布局紧,虽然压缩率高,却可能让模型 " 看不清 ",理解出现偏差。

为此,研究团队引入由 LLM 驱动的遗传搜索算法,让模型自动探索最优的渲染参数——比如字体大小、页面布局、图像分辨率等——力求在尽可能压缩的同时不丢语义。

第三阶段:后训练(Post-training)

在找到最优的渲染方案后,研究团队又动手做了两件事:有监督微调和强化学习,旨让模型在 " 看图读文 " 这件事上更聪明、更稳。

此外,他们还在 SFT 和 RL 阶段都加上了辅助 OCR 对齐任务,教模型学会从图像里准确还原文字细节,让视觉和文本两种能力真正融为一体。

最终,Glyph 一举练成两大神功:

1、看懂长文,推理稳准狠。

2、认清细节,读图不伤脑。

靠着这套组合拳,Glyph 在高压缩的视觉上下文任务里依然能游刃有余。

狂砍 75% 上下文

读懂了原理,接下来让我们看看 Glyph 的实际表现如何。

事实证明,Glyph 的确有助于大幅削减 Token 数。

实验结果显示,Glyph 在多项长上下文基准测试中实现了3 – 4 倍的 Token 压缩率,同时依然保持与主流模型(如 Qwen3-8B)相当的准确度。

这种压缩不仅减轻了算力负担,还带来了约 4 倍的 prefill 与解码速度提升,以及约 2 倍的 SFT 训练加速。

更令人惊喜的是,在极端压缩的情况下,一个上下文窗口仅 128K 的 VLM,依然能够应对相当于百万 Token 级的文本任务,并丝毫不落下风。

此外,虽然 Glyph 的训练数据主要来自渲染后的文本图像,但它在多模态任务上同样表现出色,证明了其强大的泛化潜力。

综上所述,这篇论文提出了一种名为Glyph的长上下文建模框架。

核心思路是把长文本 " 画 " 成图,再让 VLM 去看图读文,做到一目十行,从而能实现高效的上下文扩展。

论文作者

这么厉害的成果,都是谁做出来的?

论文的一作是Jiale Cheng,他是清华大学的博士生,主要研究方向包括自然语言生成、对话系统和相关的人工智能交互技术。

目前,Jiale 已发布了多篇论文,并在谷歌学术上有不错的影响力。

此外,论文还有三位主要贡献者:Yusen Liu、Xinyu Zhang、Yulin Fei。

遗憾的是,都没有太多公开资料。

担任本文通讯作者的是黄民烈教授

黄教授本科与博士均毕业于清华大学,目前是清华大学计算机科学与技术系长聘教授,同时兼任智能技术与系统实验室副主任、清华大学基础模型中心副主任。

此外,他还是北京聆心智能科技有限公司的创始人兼首席科学家。

黄教授的研究方向主要集中在人工智能、深度学习、强化学习,自然语言处理等。

像素或成最终 Token

继 MoE 名声鹊起后,DeepSeek-OCR 的出现再次在 AI 领域掀起了一波技术革命。

截至 10 月 22 日,抱抱脸上最受欢迎的前四个模型,全部都支持 OCR。

一方面,自然是视觉 Token 本身的巨大潜力。

在上下文建模方面,视觉 Token 的表现堪称惊艳——

DeepSeek-OCR 仅用 100 个视觉 Token,就能在原本需要 800 个文本 Token 的文档上取得高达 97.3% 的准确率。

这种效率提升,意味着 AI 的门槛正被迅速拉低。

据 DeepSeek 介绍,引入 OCR 技术后,单张 NVIDIA A100-40G GPU 每天可处理超过 20 万页文档

按这个速度推算,仅需一百多张卡,就足以完成一次完整的模型预训练。

降本增效历来是开源阵营的强项,但在这次热议中,大家的关注点不再仅仅停留于此——

视觉 Token 的出现,或许正在从底层重塑 LLM 的信息处理方式。

未来,像素可能取代文本,成为下一代 AI 的基本信息单元

卡帕西指出,像素天生比文本更适合作为 LLM 的输入,主要有两点原因:

1、信息压缩更高  → 更短的上下文窗口,更高的效率。

2、信息流更广泛  → 不仅能表示文字,还能包含粗体、颜色、任意图像。

马斯克的观点则更加激进:

从长远来看,人工智能模型的输入和输出中 99% 以上都将是光子。

此外,OCR 的爆火也不禁让人再次思考 AI 与脑科学之间千丝万缕的联系。

用图像而非文本作为输入,乍看之下似乎反直觉,但细想便会发现,这反而更贴近人脑的信息处理方式。

人类获取任何新信息时,最先感知到的都是图像。

即便是阅读,我们的大脑最初接收的也只是由像素按特定规律排列组合的一串图形,在经过一层层视觉处理后,这些像素才被翻译成 " 文字 " 的概念。

从这个角度来看,OCR 的表现固然惊艳,但也没那么出乎意料了。

毕竟,视觉才是人类数万年来接触世界的一手资料。

相比之下,语言不过是我们基于视觉与其他感官体验提炼出的高度浓缩的抽象层。它标准化、成本低,但本质上依旧是视觉的降维产物。

即便再清晰的影子,也注定会流失不少细节。

有趣的是,当 AI 在各项指标上不断逼近人类、引发普遍焦虑的同时,每当技术发展陷入瓶颈,我们又总能从那个被质疑 " 没那么智能 " 的人脑里重新找到答案

神经网络、注意力机制、MoE ……都是这个规律下的产物。

而这一次,深不可测的「人类智能」,从视觉 Token 上再次得到了印证。

论文:

https://arxiv.org/pdf/2510.17800

GitHub:

https://github.com/thu-coai/Glyph

参考链接:

[ 1 ] https://x.com/ShawLiu12/status/1980485737507352760

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

  年度科技风向标「2025 人工智能年度榜单」评选报名火热进行中!我们正在寻找 AI+ 时代领航者  点击了解详情

❤️‍   企业、产品、人物 3 大维度,共设立了 5 类奖项,欢迎企业报名参与   

一键关注 点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

撞车 ibm ai 开源
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论