想让大模型重点关注提示词里的某句话可没那么容易。
在 NLP 领域,注意力引导(Attention Steering)是控制大语言模型(LLM)聚焦行为的核心技术之一,其中提示高亮(Prompt Highlighting),即让模型优先关注用户指定的关键文本是一项关键策略。
然而,现有方法因需要显式存储完整注意力矩阵,与 FlashAttention 等高效实现完全不兼容,带来了严重的延迟与显存瓶颈。
为了攻克这一难题,来自爱丁堡大学的 Weixian ( Waylon ) Li 联合华为英国研究所、伦敦玛丽女王大学以及 RayNeo 的合作者,提出了SEKA(Spectral Editing Key Amplification)及其自适应变体AdaSEKA。
该方法另辟蹊径,在注意力计算之前直接编辑 Key 向量,通过频谱分解学习 " 相关性子空间 " 来引导注意力分配,天然兼容 FlashAttention,延迟开销几乎为零。目前,该项工作已被人工智能顶级会议ICLR 2026接收。

核心方法:在注意力计算之前改写 Key 向量
本文提出SEKA(Spectral Editing Key Amplification),其核心思想非常直观:与其在注意力计算之后去修改注意力矩阵,不如在计算之前直接编辑 Key 向量,从源头引导注意力的分配。

△ SEKA 和 AdaSEKA 方法概览
SEKA 通过频谱分解学习相关性子空间,在注意力计算之前编辑 Key 向量;AdaSEKA 进一步利用 Query 向量动态组合多个专家投影。
具体而言,SEKA 分为离线学习和在线推理两个阶段:
离线阶段:通过构造对比提示对(正向 / 负向 / 中性),提取不同条件下的 Key 嵌入,并利用奇异值分解(SVD)学习一个 " 相关性子空间 "。这个子空间捕捉了当某些 token 与问题相关时,Key 向量中最显著的变化方向。
在线推理阶段:对需要高亮的 token,将其 Key 向量沿着学到的相关性子空间进行投影和放大,公式简洁优雅:k ’ = k + g · P · k,其中 P 是投影矩阵,g 是增益系数。
这一操作在数学上等价于为注意力分数添加了一个低秩偏置项,但因为它完全作用于 Key 嵌入层面,所以天然兼容 FlashAttention 等高效实现,无需访问或存储注意力矩阵。
选择性引导:并非所有注意力头都值得干预
SEKA 的一个关键设计是:并非对所有 KV 头施加引导,而是只选择那些对 " 相关性 " 敏感的头。

△ Qwen3-8B 各层各 KV 头的正负 Key 嵌入ℓ₂距离热力图
绿色区域集中在中后层,说明 " 检索 " 主要分布在这些层,也是 SEKA 选择性施加引导的依据。
上图展示了 Qwen3-8B 所有层和 KV 头的相关性敏感度。绿色区域(高ℓ₂距离)集中在中后层的特定头上,与近期机制分析中发现的 " 检索头 " 分布高度吻合。SEKA 正是利用这一发现,仅对这些敏感的 KV 头施加引导,避免干扰其他功能头——消融实验也证实,去掉这一筛选机制会导致性能大幅下降。
进阶方法:AdaSEKA 让引导 " 因题而异 "
标准 SEKA 的投影矩阵是固定的,面对不同类型的任务可能需要手动调参。为此,本文进一步提出了AdaSEKA(Adaptive SEKA),引入多专家路由机制:
针对不同任务(如事实校正、指令遵循等)分别学习多组 " 专家投影 "。
推理时,利用 Query 向量与各专家子空间的对齐程度,自动计算动态权重,实时组合出最适合当前提示的引导算子。
这一机制无需任何额外训练,计算代价极低,同时显著降低了超参数调优的负担。新的专家可以随时模块化地加入,无需重新计算已有专家。
实验结果
本文在 CounterFact(知识冲突)、Bias in Bios(职业提取)、Pronoun Changing(指令遵循)等标准基准上,使用 Qwen3(4B/8B/14B)和 Gemma3(4B/12B)进行了全面实验。
下表展示了各方法在不同模型上的表现:

SEKA 和 AdaSEKA 在绝大多数设定下排名前二,在 CounterFact 上将准确率从 30-50% 提升至接近 99%。
效率对比同样亮眼:

SEKA 每个样本仅增加 0.03 秒延迟和 0.03 GB 显存,效率优势达到 PASTA 的数十倍,且完全兼容 FlashAttention。
SEKA 的意义不仅在于一个更高效的注意力引导方法,更在于它揭示了一个重要的发现:大模型的 Key 嵌入中存在结构化的 " 相关性子空间 ",可以通过简单的频谱分解来发现和利用。
这一发现为理解和控制 Transformer 的注意力机制提供了新的视角,也为构建更加可控、高效的大语言模型系统打开了新的思路。在长上下文应用日益普及的今天,一个既高效又有效的注意力引导框架具有重要的实用价值。
论文标题:
Spectral Attention Steering for Prompt Highlighting
论文链接:
https://arxiv.org/abs/2603.01281
代码:
https://github.com/waylonli/SEKA
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
我们正在招聘一名眼疾手快、关注 AI 的学术编辑实习生
感兴趣的小伙伴欢迎关注 了解详情

点亮星标
科技前沿进展每日见


登录后才可以发布评论哦
打开小程序可以发布评论哦