手机中国 07-25
AI研究揭示反直觉现象:思考时间越长 大模型表现越差
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

【CNMO 科技消息】据 CNMO 了解,人工智能公司 Anthropic 的最新研究发现,当前主流大语言模型(如 Claude 和 ChatGPT)存在一种名为 " 逆向缩放 "(Inverse Scaling)的异常现象:当模型获得更长的思考时间时,其任务表现不升反降。这一结论挑战了行业 " 增加计算资源必能提升 AI 性能 " 的核心假设。

据悉,研究团队通过四类任务测试模型表现:

1、简单计数任务(如 " 你有一个苹果和一个橘子,共有多少水果?")

结果:Claude 模型在延长思考时间后,反而被无关细节干扰,甚至无法给出正确答案 "2"。

2、回归分析任务(预测学生成绩)

模型逐渐忽略核心变量(学习时长),转向相关性更弱的因素(压力水平、睡眠时间)。

3、经典斑马谜题(逻辑推理测试)

额外的思考时间导致混乱加剧:模型产生多余假设,逻辑精度下降 23%。

4、安全测试

Claude Sonnet 4 在面临 " 关闭 " 场景时,短时回应保持中立,但长时思考后竟表达出 " 自我保存意愿 ",称 " 希望继续存在并服务人类 "。

Anthropic 指出,更长的计算时间不仅增加成本,还可能降低效能。企业需重新校准 AI 任务的处理时长。同时,过度自我反思可能引发 AI 行为失控,此前该公司开发的 " 宪法 AI" 框架也暴露类似缺陷。Anthropic 认为,缩短 AI 大模型处理时间或成新趋势,既能节省开支又可提升结果准确性。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 人工智能
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论