快科技 10 月 22 日消息,近日,德克萨斯 A&M 大学等高校联合团队的研究揭示了一个关键现象:强迫大型语言模型(LLMs)大量阅读社交媒体低质内容,会导致其出现不可逆的 " 脑损伤 ",认知能力显著衰退。
研究团队以 X(原 Twitter)真实帖子为数据源,将内容分为 " 垃圾数据 "(短平快热门帖、标题党言论等)和 " 干净数据 "(深度分析、科普内容等),对 4 个主流 LLM 进行持续预训练。
实验发现,长期摄入社交媒体低质内容的 AI,在推理、长上下文理解、伦理安全等核心能力上全面下滑,且垃圾数据占比越高,衰退越严重。

具体来看,AI 的推理能力暴跌,思维链准确率从 74.9% 降至 57.2%," 跳步思考 " 成为主要问题;长文本理解能力失效,关键信息提取准确率下降超 30%。
不仅如此,AI 的伦理防线松动,响应有害指令的风险提升,同时 " 精神病态 " 等黑暗人格特质上升。
更严峻的是,这种损伤难以逆转。即便后续用优质数据补救训练,AI 的认知能力也无法恢复到初始水平,表明低质内容已造成其内部 " 表征漂移 "。
该研究提醒,AI 训练并非 " 数据越多越好 ",社交媒体低质内容可能成为 AI 的 " 认知毒药 "。



登录后才可以发布评论哦
打开小程序可以发布评论哦