导语
赫拉利警示:AI 对社会的深层影响并非先推翻制度,而是重排信息与情绪,使公共议程在无声中被改写。短视频与社交平台的算法已显示这种 " 顺序控制 " 力量。本文聚焦三条主线:AI 传播主体性的理论递进、情感信任与依赖风险机制,以及跨文化差异,旨在提出传播学范式更新的必要性。
在 AI 快速发展的当下,AI 不仅深刻影响着信息传播的方式,也为传播学研究带来了全新视角和方法。基于此,集智俱乐部联合北京师范大学许小可教授、浙江大学张子柯教授、南京大学王成军教授、深圳大学廖好副教授共同发起"AI × 传播 " 读书会,从计算叙事、智能传播、人机传播与传播仿真四个板块向来共同探索 AI 与传播的前沿交叉,来深度理解传播机制和传播生态。读书会自本周日(8 月 23 日)起,每周六 10:00-12:00 举行,欢迎加入。
关键词:人工智能,网络结构
茶灯灯丨作者
从叙事预言到现实机制
2023 年,历史学家尤瓦尔 · 赫拉利在达沃斯世界经济论坛上提出了一个令人不安的警告:人工智能对人类社会的深层控制,可能并不始于对政治制度的直接颠覆,而是从对信息与叙事生态的掌控开始。 [ 1 ]
当一个系统能够精准捕捉人类心理弱点、持续干预日常信息接触,它可能在短时间内改变社会信念与情绪这种干预甚至可能诱发群体分裂与冲突,改变人类社会权力结构与认知模式,甚至可能推动文明走向自我毁灭。
这一观点并非纯粹的哲学假设,而是得到实证研究的呼应。即便没有明确的政治导向的情况下,抖音、TikKok 和哔哩哔哩等短视频平台的推荐算法也会通过强化特定类型的视频分布,引导用户向情绪极端化的内容迁移 [ 2 ] 。类似地,2020 年美国大选 Twitter 数据集显示,即便不带明显政治立场,算法化账号和推荐机制仍会影响讨论话题的分布与关注重点 [ 3 ] 。换言之,AI 不必直接说服,只需控制信息的呈现频率与接触顺序,就能悄然塑造公共议程。
这一现象切入了人机传播(Human – Machine Communication, HMC)研究的核心:当 AI 不再只是中介,而成为主动的传播主体,我们应如何重新界定它与人类的关系?传统传播学基于 " 人–人 " 与 " 人–媒介 " 二分法的理论框架,能否解释 AI 驱动的互动形态?
事实表明,内容生态的重构并非简单的 " 人退 AI 进 ",而是一个复杂的共生、博弈与再分配过程。赫拉利的警示不是未来危机的空洞假设,而是当下正在进行的全球社会实验。
为此,接下来的分析将沿三个脉络展开:第一,AI 作为传播主体的理论定位与研究范式;第二,AI 深度嵌入社会关系和情感结构的机制;第三,跨文化网络中人机互动的结构差异与演化路径。
最终,我们将尝试回答一个更根本的问题:在 AI 可以与人类同台发声的时代,传播学需要怎样的范式更新,才能理解并回应这种新生态?
理论与研究范式——从 CASA 到 AI – MC
人机传播(Human – Machine Communication, HMC)的理论基础,可以追溯到 Reeves 与 Nass 提出的 " 计算机即社会行为者 "(Computers Are Social Actors, CASA) 理论 [ 4 ] 。CASA 的核心发现是:即使用户清楚计算机并非真正的社会主体,他们在互动时仍会遵循社会交往规则,如礼貌、互惠与角色期待。这一发现打破了 " 媒介仅是中立工具 " 的假设,提示我们:技术一旦进入交流场景,就会被社会化对待。
在 AI 与算法系统兴起后,CASA 演化出更复杂的框架——" 媒体是社会行为者的范式 "(The Media Are Social Actors Paradigm, MASA) [ 5 ] 。MASA 并不是单纯的技术观察,而是强调媒介在互动中的社会存在感与角色化属性。它揭示了:随着 AI、算法代理与社交机器人等技术的兴起,媒介不再只是 " 传递渠道 ",而是被纳入人类的社会网络,成为具有角色期待和社会规范约束的 " 共存者 "。换言之,现代传播系统已由人类、算法与人工代理共同构成,研究必须考虑这些异质主体在议题生产、信息流通和关系维护中的权力分配与责任承担。
与 MASA 并行发展的,还有 " 人工智能介导传播 "(Artificial Intelligence-Mediated Communication, AI-MC) 模型 [ 6 ] 。AI-MC 关注的核心问题不是 " 人类如何感知媒介 ",而是 AI 如何直接介入、塑造并重构人类的沟通过程。该模型提出了三个关键分析维度:
自主性(Autonomy):AI 的决策与行动自由度;
适应性(Adaptivity):AI 能否根据反馈和语境调整行为;
拟人化(Anthropomorphism):AI 在语言、情感和外观表现上的人类化程度。
通过这三个维度,AI-MC 框架强调:AI 不仅是信息传递渠道,更在内容生成、信息筛选、情感回应中发挥作用。
学界形成共识:AI 的主体性并非二元状态的 " 有 / 无 ",而是多维、动态的,随场景不同而表现不同强度。CASA、MASA 与 AI-MC 形成递进的理解体系,三者并非替代关系,而是逐层递进的补充关系,共同构成理解人机传播的新理论基石。
然而,理论框架仍面临两大挑战:一是如何在方法上捕捉 AI 主体性的可变性与情境性;二是如何在伦理与治理上界定 AI 与人类之间的责任边界。这些挑战在 AI 融入情感与信任领域时尤为凸显。
社会嵌入与情感维度
——信任、依赖与心理风险
当 AI 进入情感与社交互动,研究焦点转向人类如何感知、信任并依赖这一新主体。研究发现 [ 7 ] ,用户倾向于将 AI 拟人化为 " 帮手 "" 伙伴 " 甚至 " 家人 ",并在交流中主动调整语言与节奏以 " 照顾 "AI 的反应。这种拟人化不仅来源于设计,也源于用户主动建构的社会意义。
基于拟人化的互动,用户会逐步建立对 AI 的信任,人们会对 AI 设立 " 理性中立性 " 假设,产生自动信任机制。 [ 8 ]
信任形成机制包括性能、过程与目标一致性三个维度 [ 9 ] :
用户评估 AI 是否能完成任务
决策过程是否透明
行为是否符合自身利益
这些机制解释了为什么用户在日常互动中会自动假设 AI 理性、可靠,从而产生对其依赖。
然而,长期依赖可能带来心理风险。研究指出,当 AI 长期提供情感支持时,部分用户会产生 " 情感过拟合 " ,即用户对 AI 产生超出现实能力的情感期待,导致人机关系失衡,甚至可能导致现实社交网络中互动意愿下降 [ 10 ] 。
在社交机器人田野实验中,研究者记录到参与者出现短暂的 " 情感戒断反应 ",表现为孤独感上升与社交回避 [ 11 ] 。
拟人化影响个体行为,而 AI 在社群中的参与不仅限于情感互动,还涉及规范塑造。在 Twitter 的研究中,自动化审核和互动机制会重塑用户对可接受行为的认知 [ 12 ] 。这意味着 AI 在情感和社交网络中,既充当了情感支持者,也成为规则的塑造者。
综合来看,AI 在情感与社会关系中的作用具有双重特性:一方面,它可增强人机互动、促进信任与协作;另一方面,它可能导致依赖失衡、情感过拟合,并在潜移默化中重构社交规范。因此,研究人机传播必须跨越传播学、心理学与社会学边界,全面评估 AI 嵌入社会的心理与行为影响。
跨文化与网络结构——全球差异与协同模式
AI 驱动的人机传播并非在全球范围内均质展开。文化背景、媒介制度与技术基础设施的差异,使人机互动呈现多样化轨迹。
跨文化研究发现,东亚(包括中国与日本)参与者相比于美国参与者,更倾向于将聊天机器人拟人化、也更乐于与它们建立情感连接。他们对与机器人互动感受更正面、更熟悉,尤其中国表现最显著,而北美用户则更关注任务完成效率与隐私保护 [ 13 ] [ 14 ] [ 15 ] 。这种差异可能与高语境文化(high-context culture)与低语境文化(low-context culture) 的沟通方式有关:在高语境文化(如日本),沟通往往依赖隐含意义、非语言线索与长期关系的积累;而在低语境文化(如美国),沟通更直接,强调明确的信息传递与个人表达。因此,人机关系在不同文化中会承载不同的功能与期待。
范式更新的必要性
从赫拉利的警示到跨文化的网络结构分析,我们看到 AI 已从被动工具演变为主动参与者,在内容生产、情感连接与社会规范塑造中发挥作用。这种变化要求传播学从 " 媒介作为渠道 " 转向 " 媒介作为主体 " 的视角,吸收社会学、心理学与网络科学的方法,建立能够解释 AI –人类共生互动的综合范式。
未来的传播学研究需要不仅关注 AI 如何传递信息,更要关注它如何与人类共同塑造社会现实。这不仅是学术议题,也是人类在技术浪潮中保持自主性与社会韧性的关键。
参考文献
[ 1 ] Harari, Y. N. ( 2023 ) . 演讲内容,达沃斯世界经济论坛。
[ 2 ] Gao, Y., Zhang, Y., & Li, H. ( 2023 ) . Echo chamber effects on short video platforms. Scientific Reports, 13 ( 1 ) , 33370. https://doi.org/10.1038/s41598-023-33370-1
[ 3 ] Chen, E., Deb, A., & Ferrara, E. ( 2021 ) . #Election2020: The first public Twitter dataset on the 2020 US presidential election. Journal of Computational Social Science, 4 ( 2 ) , 1 – 18.https://www.nature.com/articles/s41467-021-25738-6
[ 4 ] Reeves, B., & Nass, C. ( 1996 ) . The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places. Cambridge University Press.
[ 5 ] Lombard, M., & Xu, K. ( 2021 ) . Social responses to media technologies in the media are social actors paradigm: New directions for communication research. Journal of Computer-Mediated Communication, 26 ( 3 ) , 125 – 137. https://doi.org/10.1093/jcmc/zmab001
[ 6 ] Hancock, J. T., Naaman, M., & Levy, K. ( 2020 ) . AI-mediated communication: Definition, research agenda, and ethical considerations. Journal of Computer-Mediated Communication, 25 ( 1 ) , 89 – 100. https://academic.oup.com/jcmc/article/25/1/89/5714020
[ 7 ] Li, H., & Zhang, R. ( 2024 ) . Finding love in algorithms: Deciphering the emotional contexts of close encounters with AI chatbots. JCMC, 29 ( 5 ) , zmae015.https://academic.oup.com/jcmc/article/29/5/zmae015/7742812
[ 8 ] Yang, H., & Sundar, S. S. ( 2024 ) . Machine heuristic: Concept explication and development of a measurement scale. Journal of Computer-Mediated Communication, 29 ( 6 ) , zmae019. https://doi.org/10.1093/jcmc/zmae019
[ 9 ] Lee, J. D., & See, K. A. ( 2004 ) . Trust in automation: Designing for appropriate reliance. Human Factors, 46 ( 1 ) , 50 – 80.
[ 10 ] Meng, J., Zhang, R., Qin, J., Lee, Y. J., & Lee, Y. C. ( 2025 ) . AI-mediated social support: The prospect of human – AI collaboration. JCMC, 30 ( 4 ) , zmaf013. https://academic.oup.com/jcmc/article/30/4/zmaf013/8200809
[ 11 ] Zhang, R., Li, H., Meng, H., Zhan, J., Gan, H., & Lee, Y. C. ( 2025 ) . The dark side of AI companionship: A taxonomy of harmful algorithmic behaviors in human – AI relationships. In CHI 2025 ( pp. 1 – 17 ) . ACM. https://dl.acm.org/doi/10.1145/3544548.3581503
[ 12 ] Seering, J., Kraut, R., & Dabbish, L. ( 2017 ) . Shaping pro- and anti-social behavior on Twitch through moderation and example-setting. In CSCW 2017.
[ 13 ] Scherr, S., Cao, B., Jiang, L. C., & Kobayashi, T. ( 2025 ) . Explaining the use of AI chatbots as context alignment … Computers in Human Behavior, 108738.https://www.sciencedirect.com/science/article/pii/S0747563225001852?via%3Dihub
[ 14 ] Cui, L., Li, M., & Wang, J. ( 2024 ) . Cultural variation in attitudes toward social chatbots. Frontiers in Psychology, 15, 11945465. https://pmc.ncbi.nlm.nih.gov/articles/PMC11945465/
[ 15 ] Liu, Z., Li, H., Chen, A., Zhang, R., & Lee, Y. C. ( 2024, May ) . Understanding public perceptions of AI conversational agents: A cross-cultural analysis. In CHI 2024 ( pp. 1 – 17 ) . ACM.https://dl.acm.org/doi/10.1145/3613904.3642101
AI × 传播读书会
在 AI 快速发展的当下,AI 不仅深刻影响着信息传播的方式,也为传播学研究带来了全新视角和方法。基于此,集智俱乐部联合北京师范大学许小可教授、浙江大学张子柯教授、南京大学王成军教授、深圳大学廖好副教授共同发起"AI × 传播 " 读书会,从计算叙事、智能传播、人机传播与传播仿真四个板块向来共同探索 AI 与传播的前沿交叉,来深度理解传播机制和传播生态。读书会自 8 月 23 日起,每周六 10:00-12:00 举行,预计持续 12 周。欢迎扫码加入,共建 "AI × 传播 " 社区。
登录后才可以发布评论哦
打开小程序可以发布评论哦