你以为自己是不平,其实你只是钻进了别人精心设计的「情绪陷阱」;你以为自己是不忿,其实你只是吞下了别人专门投下的「愤怒诱饵」…… 这层后真相时代的真相「窗户纸」,被牛津词典捅破了。
前不久,牛津词典团队公布了 2025 年牛津年度词汇:愤怒诱饵(rage bait)。
什么是「愤怒诱饵」?简单来说,就是故意用刺激性内容引发网民愤怒,借机获取流量。摆拍「儿媳给住院婆婆吃泡面」「外卖骑手被顾客羞辱」,皆在此列。
▲牛津词典团队将「愤怒诱饵」评选为 2025 年牛津年度词汇。
毫无疑问,「愤怒诱饵」现象值得警惕:当愤怒成为被批量生产的博流量工具,随之而来的是社会戾气的加重、舆论质地的劣化。
可从舆论反应看,部分人又顺着「遇事不决,量子力学;归因无妨,信息茧房」的流行总结归纳法,将箭头对准了算法,被顺带着提及的高频词还有「信息茧房」。
在他们看来,「愤怒诱饵」背后是算法捕网,是算法编织的信息茧房提供了传播温床,「愤怒诱饵」才会潜滋暗长。
这不免让人想起柏拉图的「洞穴寓言」:许多人错将墙上投影认成真实世界,却对真正光源视而不见。
01/
索维尔曾说过:如果你认为人类总是理性的,那么,至少一般的历史是无法解释的。
为什么网络上会出现「愤怒诱饵」现象?原因也跟那三个字紧密相关:非理性。
神经学研究表明:大脑对坏刺激的反应比对好刺激更强烈,而且留下的痕迹更深,所以坏消息会让我们产生更多的注意力。社会学中的注意偏向理论也与此相通:跟中性刺激比,情绪性刺激更容易捕获个体注意力。
也就是说,当那些争议性话题出现在公众视野中时,用户会本能地投以更多关注。
正是看到了这点,那些流量捕手玩起了情绪操控把戏:他们通常会先「选饵」,识别争议性话题和冲突性元素(如性别对立、地域歧视、代际冲突、阶层差距等);再「制饵」,将极端标签、反差情节、失真细节等精心调配,糅在一块;接着「下钩」,通过标题党、伪造截图等手段,激起网民愤怒;最后「收网」,获取流量后,想法子变现。
▲央视此前曾起底营销号靠摆拍「外卖员被顾客羞辱」系列视频起号。
说到底,是人类注意力机制的非理性特征跟部分人流量饥渴下的行为扭曲,共同催生了「愤怒诱饵」现象。
在某些人的想象中,「愤怒诱饵」盛行离不开算法对「愤怒 - 互动 - 推荐 - 更多愤怒」的恶性循环的助推。
但这更多的是想当然。因为很多人脑补出的「传播者 - 用户 - 平台」共生关系在「愤怒产业链」上并不存在。
事实一再表明,用户频繁刷到制造矛盾、渲染对立的内容后,产生的负面情绪最终导向的不是停留,而是逃离,不是沉迷,而是卸载;而充满戾气的社区环境或平台氛围,也很难受到品牌方青睐,商业价值会骤减,还可能承受监管层面压力,风险系数会剧增。
这意味着,「愤怒诱饵」带来的「恶流量」跟平台在用户体验、内容安全、商业利益上的追求,存在根本性冲突。在「愤怒诱饵」引发的社会撕裂、信任危机会导致平台利益受损的背景下,平台又有多少动力去拥抱其带来的「恶流量」呢?
很多平台已经用行动给出了答案,如抖音今年推出了《抖音社区热点信息和账号治理规则(试行)》,旗帜鲜明地反对极端、煽动、攻击、引战内容,并对为博取流量刻意制造冲突、煽动引战等内容,以及发布煽动蹭热内容的「恶意营销号」等进行重点治理。
它释放的信号就是:面对「愤怒诱饵」现象,平台充当的是「过滤器」而非「助推器」角色。
02/
要看到,无论是「愤怒诱饵」,还是之前的「傻子共振」「算法离间」,这些新词在舆论场激起的涟漪,本质上都是「算法织茧说」的回响。
在民粹、饭圈、打拳等问题肆虐的当下,不少人已习惯了将问题归咎于算法构筑的信息茧房。这看似是化繁为简,实则是化约惯性与思维惰性的反映。
在这问题上,我的主要看法是:
1,「信息茧房」是否存在还难说,但「认知茧房」真真切切存在。
「信息茧房」究竟是真实存在的「赛博囚笼」,还是想象出来的稻草人议题,学界至今都莫衷一是。毕竟,「信息茧房」的假说在学术性实证研究中从未被证实过。
▲包括陈昌凤、喻国明在内的国内传播学者都曾提出,「信息茧房」没有实证研究佐证。
但这不等于「认知茧房」就不存在。约半年前,我曾写过一篇《 「信息茧房」者,困在了「认知茧房」里》。
文章认为:算法是放大器,它的放大效应会在「人塑造环境」和「环境塑造人」的双向交互中倍数级还原出人的多面性来。算法会在同频共振中放大向美向善的力量,也会暴露许多人获取信息上路径依赖,沟通信息上社交衰退、消化信息上感情用事的弊端 …… 这些凝结成的,就是「思维茧房」「社交茧房」「认知茧房」。
2,信息偏食是依托人脑「过滤罩」的自我保护机制,没那么可怕。
很多学者都倾向于认为,信息茧房是伪命题,信息偏食是真问题。就连「信息茧房」概念的提出者桑斯坦,都将「信息茧房」症结归于「信息偏食」。
信息偏食,其实是人脑基于喜同恶异、趋利避害本性自动开启信息筛选的脑部减负机制,为的是避免信息过载。
3,真正可怕的,不是算法,而是信息的单一控制和限量供给。
信息匮乏时代的「茧房」是物理性的,因为没得选——今天那些言必称「信息茧房毁了下一代」的人,可能忘了在社交媒体出现之前大家只能听「同一首歌」。
信息丰裕时代的「茧房」则是心理性的,它不是由分发渠道决定,而是由大脑的信息加工机制塑造。
03/
说这些,核心也是在回应两个问题:「茧房」到底是怎么形成的?算法真的会筑茧吗?
先来说第一个。
前不久,世界权威学术期刊《Science》发了篇论文《不要责怪算法:社交媒体可能天生就存在两极分化》,介绍了来自阿姆斯特丹大学逻辑、语言与计算研究所的最新研究成果。
▲《Science》发表论文称,即便没有算法,社交媒体也会存在极化现象。
研究团队搭建了无个性化算法的极简社交平台,仅保留发帖、转帖和关注功能,投入 500 个带有固定人格设定的 AI 机器人模拟人类行为。实验结果显示,无需算法干预,机器人在 5 万次互动后便会自动形成阵营:立场接近的互相关注,极端观点的传播速度远超中立内容。
结论是:「信息茧房」的形成并非算法所致,而是人类趋同避异社交本能的自然产物,即便没有算法,社交媒体也会存在极化现象。
这从社会心理学层面也能得到解释:人类的注意力分配和记忆编码机制,天生自带「茧房」倾向。「确认偏误」会让我们更关注我们愿意关注的信息,「负面偏好」会让我们对令人愤怒的事物记忆更深刻,「可得性启发」会让我们高估近期接触信息的重要性 ……
算法给用户推送了 100 条内容,其中 80 条符合用户兴趣,15 条是系统主动探索的多样性内容,5 条是随机噪音,可用户大脑往往会选择性遗忘那 95 条,牢牢记住那几条让自己愤怒或惊喜的「极端」信息,这已成常态。
在《打破社交媒体棱镜》中,杜克大学教授克里斯 · 贝尔还通过实验给出了另一个「反直觉」的结论:即便强制让人接触对立观点,也不会使其变得温和,反而会促使其强化自身立场,变得更加极端。
言下之意,在社交媒体上的认知封闭,本质上是人类本性在网络空间的延伸。
与其说是算法在制造茧房,不如说是人类认知系统自身在编织滤网。
▲权威学术期刊《自然》杂志也曾发表论文,用实验证明没有证据表明算法是两极分化的关键推手。
再来说第二个。
如果算法让人们看到的都是自己想看到的、听到的都是自己想听到的,那确实会筑茧。
但事实上,算法早已从单一的兴趣匹配进化为多目标优化体系,抖音算法推荐不仅会考虑「用户喜欢什么」,更会主动控制相似内容的出现间隔、频次上限,强制插入多样性内容,并通过随机推荐、社交关系兴趣拓展、搜索推荐联动等方式,帮助用户突破既有兴趣圈。
拿我来说,我就很喜欢抖音的「使用管理助手」功能,因为我可以在色盘圆环图中看到我的兴趣分布,还能通过「探索更多」来增加多样化信息供给。在此过程中,算法成了我对外探索的向导,而非让我向内筑茧的狱卒。
▲用户可以点进「使用管理助手」页面,设置时间锁、休息提醒和进行内容管理。
有意思的是,著名传播学者喻国明还认为,智能算法推荐具有反信息茧房的本质,「采用多种算法的信息分发平台所具有的社会构造,从信息流动来说,总体上能够有效地避免‘茧房效应’的发生」。换句话说,算法非但不会筑茧,还能破茧。
这并非没有依据。抖音此前公布的「双塔召回模型」,就是通过将用户和内容转化为高维空间的数学向量,实现脱离具体语义的精准匹配,发掘用户潜在兴趣领域,让用户刷到意料之外但又在情理之中的内容。
在著作《必然》里,凯文 · 凯利曾提出「理想的过滤器」设想:它应该推荐那些「我想知道我的朋友喜欢什么,而那又是我现在还不了解的」,以及「它将是一种会向我建议某些我现在不喜欢,但想尝试着喜欢的东西的信息流」。
目前看,算法进化已经让这番设想变为现实。
04/
这倒不是说算法已经臻于至善了,只是说很多人对算法有许多因不解而生的恐惧、因误解而生的敌意。
怎么消除这些不解和误解?用算法透明化去祛除「算法魔法化」的想象,是应有之方。
多年来,堵在算法透明化面前的那堵高墙叫「商业秘密」,但今年以来,有个明显迹象是,以抖音为代表的中国互联网公司主动拆「墙」。
从 2025 年 1 月宣布建立安全与信任中心,到 3 月网站上线披露算法细节,到 4 月举办开放日与媒体沟通会,到 5 月全面升级使用管理工具,再到 9 月召开首场「算法向善」专家研讨会 …… 抖音构建起了包含规则阐释、案例解析、互动答疑的多维沟通体系,让算法走出黑箱、走向透明。
▲抖音安全与信任中心官网上公布了详细算法原理。
这其实就是用算法祛魅来消除大众对「不受控制的技术权力」的担忧:当平台将如何通过「多目标建模」平衡短期互动与长期价值、如何设置「多样性约束」避免内容重复、如何引入「探索因子」突破兴趣固化等呈现在公众面前,算法的「可理解」本身就成了公共产品。
对算法污名化的最好阻击,就是将其置于「可解释、可参与、可监督」的透明化治理框架下。那样一来,用户会逐渐明白:算法不是独立的价值主体,而是人类行为的映射,不是神秘的巫术魔法,而是可被监督可改进的工具,它并不全能,也非万能。
我在媒体沟通会上听抖音的算法工程师解释为何我们看到的是内容 A 而非内容 B 时,听运营负责人解释平台如何定义「优质内容」时,就生出了两点感受:1,将那些复杂的社会结构性问题简单归结为算法原罪,在自己作茧自缚后怪罪于算法织茧,都是选择性遮蔽下的归因偏差;2,很多时候,技术不是问题,放弃人的自主性才是。
拿「愤怒诱饵」现象来说,「愤怒诱饵」太多,算法没法背锅。不能因为算法「不会说话」,就让它客串窦娥、充当标靶。
算法确实还有很多不足,但解决之道不是打倒算法,而是让算法在阳光下运行,让公众理解算法原理,让平台承担起治理责任,让用户重掌信息主权。当人们更多地承认其局限、发挥其价值,那个被迷雾笼罩的人机共处未来才会愈发清晰。
这其中,我们掌握自己的信息主权很重要。纳萨尼尔 · 霍索恩说过:你关注什么,最终你就成为什么。将其换成另一个表述就是:每个人,都是自己接收信息情况的第一责任人。
因为决定你的信息流走向的,不是一行行代码,而是你的一次次点击、停留、互动。你命由你不由天,你接收的信息由你不由「算」。


登录后才可以发布评论哦
打开小程序可以发布评论哦