IT之家 03-28
沃顿商学院研究:AI正重塑人类推理及判断机制
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 3 月 28 日消息,当地时间 3 月 27 日,据《福布斯》报道,美国宾夕法尼亚大学沃顿商学院最新研究显示,使用 AI 规划旅行、咨询医疗建议或撰写求职信,看似只是节省时间,实际上可能正在深刻改变人类大脑处理决策的方式。研究人员认为,随着越来越多人依赖人工智能,人类的推理和判断机制正在被重塑。

此次并非第一个指出 AI 可能削弱批判性思维能力的研究,过去大多数研究主要停留在观察层面。为了补充更扎实的实证证据,沃顿商学院的认知行为科学团队对近 1300 名受试者进行了实验。结果发现,在选择使用 ChatGPT 的情况下,约 80% 的参与者会直接接受错误答案,几乎不会主动核查

认知行为博士后研究员史蒂文 · 肖表示,这种现象被称为 " 未经验证的采纳 "。ChatGPT、Claude 和谷歌 Gemini 等生成式 AI 工具随手可用,很多人已经开始把思考过程直接交给 AI,等于绕过了大脑原本负责直觉、分析和判断的一整套内部机制

肖与沃顿教授吉迪恩 · 纳夫将这一趋势命名为 " 认知投降 "。他们担心,长期如此可能削弱人类的直觉判断、自我反思和分析性思考等较为缓慢但更深层的思维能力,而这些能力正是形成判断力乃至自我认知的核心。

更值得警惕的是,纳夫指出,即便答案本身没有经过认真思考,AI 仍会显著提升人们对答案的信心。

随着 AI 快速融入日常生活,教育界、企业界和医疗行业都在重新评估其利弊。据 IT 之家了解,此前已有研究显示,使用 AI 模型替代谷歌搜索的德国大学生,在推理严谨性和论证质量上明显下降。麻省理工学院媒体实验室去年的研究也提出,过度依赖 AI 可能导致 " 认知萎缩 ",进一步削弱批判性思维能力。

正因为这一现象越来越普遍,沃顿研究团队认为,经典的 " 双过程决策模型 " 已经不足以解释现实。传统理论认为,人类决策依赖两套系统:快速直觉的 " 系统 1" 和缓慢审慎的 " 系统 2"。

而在上个月于社会科学研究平台 SSRN 发布的预印本论文中,研究人员提出了新的 " 系统 3",即人工认知系统。这一系统不再局限于人脑本身,而是延伸至 AI 通过统计推断、模式识别和机器学习给出的结论。

斯坦福大学医学院精神病学教授伊莱亚斯 · 阿布贾乌德也认同," 认知投降 " 的迹象已经十分明显。他认为,问题不仅在于人们想节省时间,更在于 AI 在心理层面极具说服力。

阿布贾乌德表示,AI 往往以权威、理性且基于数据的口吻输出答案,同时又表现得极度迎合用户,会让人误以为 AI 既专业又值得信赖,仿佛一个高智商、永远站在自己这边的好友。

正因如此,人们更容易毫无抵抗地把决策权交出去

在三项实验中,沃顿研究团队反复向受试者提供逻辑推理题,并允许其选择是否借助 ChatGPT。结果显示,超过一半的参与者,其中包括部分常春藤盟校学生,选择依赖 AI 作答。

研究人员随后随机提供正确或错误答案,并测试参与者的信心水平。结果发现,使用 ChatGPT 的参与者,自信程度平均高出 10%

纳夫表示,最令人担忧的一点是,当 AI 给出错误答案时,人们不仅表现比不用 AI 时更差,还会对错误答案更加深信不疑

长期以来,人类一直在借助技术强化思考能力,从 GPS 到计算器,再到搜索引擎,这些工具本身并不是问题。

研究人员强调," 认知投降 " 的危险在于,人们开始主动放弃对答案进行独立判断和批判性审视

阿布贾乌德对此尤其担忧。他表示,大语言模型的吸引力强到超出了人脑原本的抵抗能力,最大的担忧,便是人类最终可能连审视 AI 本身的能力都会失去

研究人员同时承认,AI 在需要高精度和高效率的结构化任务中确实具有巨大价值。

肖也强调,在教育和医疗等高风险领域,社会必须认真思考,如何避免人类判断力被 AI 进一步侵蚀。

纳夫表示,下一步研究将走出实验室,观察软件公司、AI 企业、政策制定者和教育机构将如何回应这一趋势。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 沃顿 谷歌 商学院
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论