爱范儿 15小时前
确诊了,AI 让我们都感染上“不是/而是”综合症
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

凌晨两点,当我对着年终总结的空白文档发呆时,困得发昏手指下意识地敲,「这不是一种‘赋能’,而是一种‘资源闭环’ ……」

那一刻,空气似乎凝固了一秒。我并没有打开 ChatGPT,但那个典型的「不是 …… 而是」就像幽灵一样,从我的键盘里蹦了出来。

这不是我一个人的毛病,在座的各位可能都经历过。马克斯 · 普朗克人类发展研究所的一项最新研究,向我们展示了一个令人脊背发凉的趋势,我们曾理所当然地认为 AI 是模仿人类智慧的学徒,但现在的证据表明,这个学徒正在反过来,教师傅怎么说话。

「零号病人」

为了更准确地研究这个现象,研究人员在实验设计上颇费了一番心思——他们分析了超过 740,249 小时的人类语音记录(内容量相当于一个人不眠不休地听上 84 年)。这些数据涵盖了 36 万个 YouTube 演讲视频和 77 万集播客节目。

之所以选择「播客」作为核心研究样本,是因为社会语言学家认为,演讲往往是脚本化的,人们有充足的时间用 AI 来精修文案;但播客不同,它是高度即兴、高频互动的自发性语言。在热烈的交谈中,人类的大脑会进入一种类似于「自动驾驶」的直觉模式。如果 AI 的特征词汇出现在这种场景里,那就说明它已经不仅仅是外接的工具,正在深入「脑髓」。

这样的数据选择范围,果然让他们捕捉到了一些异常信号。自从 2022 年底 ChatGPT 发布以来,人类口语中某些特定词汇的使用频率,划出了一条几乎垂直的上升曲线。

在这场语言传染病中,单词「Delve」(钻研)被公认为零号病人。在 2022 年之前,这个词几乎就是被冷落在字典的某个角落里,只有在非常正式的文学或严谨的学术论文里才会偶尔露面。但到了 AI 时代,它是算法最忠实的心头好,AI 对这个词的偏好度比人类高出数百倍。

紧随其后的还有像 Meticulous(一丝不苟)、Comprehend(理解)、Underscore(强调)、Realm(领域)这种听起来很有礼貌、但平时聊天基本没人用的词。

佛罗里达州立大学的计算语言学家通过更细致的对比发现,学习新词的行为没有想象中的那么「自然而然」,而是一种精准的、被动的模仿。比如,我们开始疯狂使用 Underscore,但它的近义词却几乎无人问津。

这种选择性的频率爆发说明,我们并不是因为词汇量匮乏在主动求变,而是因为大脑被 AI 输出的高频文本持续「投喂」后,建立了一种路径依赖。当大脑需要表达「强调」这个概念时,那个被 AI 反复强调的路径,便成了阻力最小的出口。

谁在免疫,谁在沦陷?

但怎么就一定是 AI 导致的呢?可能是上网冲浪太多了呢,社交媒体、短视频、日常聊天互动,都是有可能影响语言习惯的啊。

为了理清这种可能性,研究人员用了计量经济学中的「合成控制法」。他们利用大数据构建了一个「没有 AI 发布」的平行宇宙模型。在那个虚拟世界里,人类语言按照过去的演变逻辑缓慢进化—— Delve 这些的使用率,平稳得如同常年没有波动的 A 股市场(不是)。

而在现实宇宙中,这些词的暴涨与技术发布的时间点完美契合,这就让 AI 作为语言习惯改变的主要因素,显得更有说服力了。

这种干预背后其实隐藏着心理学上的「启动效应」。当我们每天阅读由 AI 生成的周报、邮件和新闻简报时,这些词汇就在我们的短期记忆中不断被加权。当我们在麦克风前或会议室进行即兴表达时,这些被过度启动的词汇就会像自动联想一样,不知不自觉就从嘴里蹦出来。AI 的语言风格正以一种温水煮青蛙的方式,替换掉我们原本个性化的表达。

这场语言病毒的传播展现出了极强的圈层偏好。研究发现,感染率最高的领域集中在科学技术、商业和教育行业。

倒也 …… 不意外,因为这些人刚好也是第一批吃螃蟹的人,很早就开始尝试用 AI,AI 在日常生活中的渗透程度也更高。

他们每天在高强度地处理由算法生成的逻辑框架,又习惯了那种聪明的、滴水不漏的表达方式。当他们试图展现自己的专业性时,潜意识会告诉他们,模仿那种「AI 式的正确」是最安全的做法。

相对的,体育和宗教领域就表现出了惊人的免疫力。在体育播客中,那些垃圾话、极度情绪化的感叹词和短句,还是主要的输出方式。宗教更特殊一点,经文和信仰构筑了一道天然的文化防火墙。

虽然马克斯 · 普朗克的研究基于英语语境,但在中文互联网上,类似的「AI 感染」同样随处可见,比如「不是 …… 而是 ……」的句式。

有一说一,中文比较特殊的地方在于,很多词和用语本来也算得上常用,也不完全由 AI 发明,但 AI 的高频调用极大加速了它们的扩散。所以在中文语境中的情况变成了,原本习惯这样说话的人,现在特别容易被「随手鉴」打成 AI。

上一次有这样的感染,还是大厂黑话,那个流行程度之广——即便不是大厂员工、不在互联网工作,也会时不时冒出几个「底层逻辑」、「赋能」、「闭环」、「全维度」等「黑话」词汇。

这种对比揭示了一个残酷的真相:越是追求效率、逻辑和标准化的领域,越容易被 AI 那个去个性化的灵魂所夺舍。不容易被渗透的,要么是非常严实、几乎密不透风的壁垒(宗教),要么是非常野生的,规则时不时会被打碎的场域。

可以看出来,AI 入侵的不仅仅是词汇,更是我们对「什么是有效表达」的价值判断。这才是整项研究最让人不安的地方——它很像是贪吃蛇游戏,一直玩一直玩,蛇尾越来越长后,总是会咬到自己。

AI 在人类过去积累的纯净数据中学习,提炼出了一种最符合概率、最平均的表达风格。随后,人类大量使用、阅读,下意识地习惯了这种风格,在社交媒体和口语中生产出更多「含 AI 量」极高的数据。接着,下一代 AI 模型又开始抓取这些已经被污染过的、高度同质化的数据进行训练。

这种循环会导致语言的坍缩。康奈尔大学的研究者警告说,这会引发一种集体创造力的稀释。当一种「正确但无聊」的方式说话弥漫时,语言中的地域色彩、个人癖好、甚至是那些充满生命力的误用都会消失。语言不再是思维的火花,而成了流水线上的标准零件。

当然,我们不必过度陷入「被机器扼住喉咙」的恐慌——语言本身就是流动的,我们今天习以为常的很多表达,在几百年前可能都不存在。

表达方式的更迭,也是跟随着技术迭代发生的。但「Delve 综合症」至少给我们提了一个醒:这世界上最无聊的事情,莫过于两个人类坐在对面,却像两个机器人一样,礼貌地交换着早已预设好的概率。保护好你的口癖,你的瑕疵,那是你作为人类的不应抹去的特征。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai youtube 自动驾驶 词汇
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论