驱动之家 前天
研究发现:强迫AI大量阅读社交媒体垃圾帖 会造成不可逆的脑损伤
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 10 月 22 日消息,近日,德克萨斯 A&M 大学等高校联合团队的研究揭示了一个关键现象:强迫大型语言模型(LLMs)大量阅读社交媒体低质内容,会导致其出现不可逆的 " 脑损伤 ",认知能力显著衰退。

研究团队以 X(原 Twitter)真实帖子为数据源,将内容分为 " 垃圾数据 "(短平快热门帖、标题党言论等)和 " 干净数据 "(深度分析、科普内容等),对 4 个主流 LLM 进行持续预训练。

实验发现,长期摄入社交媒体低质内容的 AI,在推理、长上下文理解、伦理安全等核心能力上全面下滑,且垃圾数据占比越高,衰退越严重。

具体来看,AI 的推理能力暴跌,思维链准确率从 74.9% 降至 57.2%," 跳步思考 " 成为主要问题;长文本理解能力失效,关键信息提取准确率下降超 30%。

不仅如此,AI 的伦理防线松动,响应有害指令的风险提升,同时 " 精神病态 " 等黑暗人格特质上升。

更严峻的是,这种损伤难以逆转。即便后续用优质数据补救训练,AI 的认知能力也无法恢复到初始水平,表明低质内容已造成其内部 " 表征漂移 "。

该研究提醒,AI 训练并非 " 数据越多越好 ",社交媒体低质内容可能成为 AI 的 " 认知毒药 "。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 阅读 大学
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论