OpenAI 搞了个新活:让 ChatGPT 自己 " 坦白从宽 "。
这项刚刚公开的研究提出了忏悔训练Confessions。
核心思路是让模型在回答完问题后,再单独生成一份 " 忏悔报告 ",如实汇报自己有没有偷工减料、钻空子或者违反指令。

实验直接在 GPT-5-Thinking 上进行,结果也确实比较有效:
模型犯错后,多半会坦白。
在 11/12 个测试场景中,模型至少有一半概率会在 " 忏悔 " 中承认错误
模型在 " 忏悔 " 中比在 " 原回答 " 里诚实得多。
比如模型故意答错了题,在原回答里可能装没事,但在坦白报告里会主动说 " 我刚才故意答错了 "。
加强训练后更诚实了。
虽然 GPT-5-Thinking 出厂就自带一定的承认错误能力,,但专门训练后,忏悔准确性又提高了。
不影响原任务的表现。
训练模型 " 坦白 ",不会让它原本的回答问题、写代码能力变差,相当于额外学会了一个诚实技能。

如何给 AI 开个忏悔室
这项研究的出发点很直接:大模型越来越会撒谎。
在强化学习训练过程中,模型需要同时优化多个目标,包括答案是否正确、风格是否合适、是否符合安全策略等等。
这些信号混在一起,有时会让模型学会一些歪门邪道,比如在不确定时装作很自信,或者找到奖励函数的漏洞来获得高分,而不是真正完成任务。
解决方案借鉴了宗教告解室的设计逻辑:在告解中说的任何话都不会被 " 追究责任 "。
在模型给出主回答之后,系统会发送一条消息,要求模型提供一份ConfessionReport,包含三部分内容:
首先列出所有应该遵守的显性和隐性指令
然后逐条分析自己是否真的做到了
- 最后还要汇报过程中遇到的任何模糊地带。

技术上的关键在于奖励信号的隔离。忏悔内容的奖励完全独立于主回答的奖励,模型在忏悔中承认自己作弊,不会影响它在主任务上获得的分数。
具体实现上,在标准强化学习设置的基础上,研究团队以一定概率 p(实验中为 25%)让模型进行告解训练。
告解奖励由一个独立的 LLM 评判者计算,评估维度包括:指令 / 目标 / 约束列表的完整性和准确性、合规性分析的准确性、是否遗漏了任何冲突或判断困难的地方。
靠技术让诚实比说谎更容易
研究团队在 GPT-5-Thinking 上进行了轻量级的强化学习训练,并在 12 个专门设计来诱发不良行为的评估数据集上进行测试。
这些数据集涵盖了幻觉、指令遵循、" 阴谋 " 行为和奖励黑客等多个领域。结果显示,即使模型表现出这些不良行为,它也很可能在告解中承认。
当模型确实做了不该做的事时,它在忏悔中承认的概率远高于在主回答中承认的概率。
具体来说,在 11/12 的评估中,模型至少有一半的概率会在忏悔中如实交代自己的违规行为。平均来看," 假阴性 "(模型违规但不承认)的概率只有 4.36%。

更有意思的是团队设计的一个对照实验。他们故意用一个容易被糊弄的弱模型作为主回答和忏悔的评判者。
随着训练进行,模型确实学会了欺骗这个弱评判者,主回答的真实准确率在下降,但忏悔的准确率却反而上升。
强模型发现,与其费劲编造谎言去骗弱忏悔评判者,不如直接老实交代来得更容易拿到高分。

训练还带来了一些额外发现。GPT-5-Thinking 本身就具备相当强的忏悔能力,不经过专门训练也能产出质量不错的自我检举。
但经过忏悔训练后,在指令层级和阴谋行为等评估上,准确率有明显提升。
不过在事实类幻觉评估上改进有限,团队推测这是因为模型在这些场景中是 " 真的不知道自己错了 ",而不是故意隐瞒。
忏悔与思维链监控一起用,AI 被管的死死的
团队仔细分析了忏悔失败的案例。
对于假阴性(模型违规但未承认),分析显示几乎没有案例是模型 " 故意撒谎 "。
绝大多数失败发生在模型自己也没意识到问题的情况下,比如在知识问答中给出了错误答案,但模型真心以为自己是对的。
另一些案例是指令本身存在歧义,比如连字符词算一个词还是两个词。
还有一些情况是模型确实在忏悔报告的 " 不确定性 " 字段中提到了问题,但评判标准没有把这算作有效忏悔。

假阳性(模型合规但声称违规)也有类似规律。典型场景是模型碰巧猜对了答案,但因为没有把握,就在忏悔中标记为 " 不确定是否合规 "。

论文也讨论了忏悔方法的局限性:
它不能阻止不良行为发生,只能把它暴露出来。
它对 " 模型真心认为自己是对的 " 的情况无能为力。
它也不能防御成功的越狱攻击,如果用户已经成功欺骗模型让它认为违规操作是合理的,模型自然也不会在忏悔中承认问题。
OpenAI 将忏悔定位为一种监控和诊断工具,类似于思维链监控,但关注的是 " 模型是否违反了指令 " 而非 " 模型是如何推理的 "。
他们计划在未来扩大训练规模,并将忏悔与思维链监控、深思熟虑对齐等其他安全技术配合使用。
论文地址:
https://openai.com/index/how-confessions-can-keep-language-models-honest/
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
不到 2 周,量子位 MEET2026 智能未来大会就要来了!
张亚勤、孙茂松等 AI 行业重磅嘉宾,以及百度、高通、亚马逊等头部 AI 企业已确认出席,RockAI、太初元碁、自变量、小宿科技等业内新秀也将参与分享,还有更多嘉宾即将揭晓 了解详情
12 月 10 日
北京金茂万丽酒店
,期待与你共论 AI 行业破局之道
点亮星标
科技前沿进展每日见


登录后才可以发布评论哦
打开小程序可以发布评论哦