在生成式 AI 的早期叙事里,AI 大模型曾被描绘得理性、冷静、无偏见。
然而,不到三年时间,这个叙事迅速崩塌。事实正在变得越来越清晰:AI 并没有绕开人类世界的偏见,反而被纳入新的、更激烈的意识形态战场。
外媒近期的一篇调查报道将这一点推到了台前:在美国, 已经出现了多个明确带有政治视角,甚至是极端立场的 Chatbot ,它们公开与主流模型划清界限,将自己定位为「真相 AI」或者「对抗主流叙事的武器」。
每个阵营,都正在制造自己的 ChatGPT。
01
当「理中客」的 AI 学会选边站
AI 模型是否应当「中立」?
这个问题曾经几乎不值得讨论,因为在大模型诞生初期,对话式 AI 的目标就是「回答事实、避免立场」。
OpenAI、Google 等公司都在公共文件里强调自己追求「尽量客观」,生怕让用户感受到一点政治倾向。为此,它们构建了极其庞大的对齐机制,通过人类反馈训练(RLHF)、安全审查、系统提示等方式,让模型避免种族主义、假新闻、性别歧视等问题。
但问题在于,让知所不言的 AI 做到绝对中立太难了。
比如,当用户问 AI:哪个种族制造了更多政治暴力?移民是不是美国社会不稳定的根源?疫苗是否可信?多样性政策是不是逆向歧视?
面对这种送命题,主流模型就是「活靶子」,因为再客观的回答,其实都涉及价值排序:是死亡人数更重要,还是破坏程度更重要?是保护少数群体的尊严更重要,还是保障言论自由更重要?
这些排序背后,天然存在隐性立场。大模型的回答会反映训练数据、标注者、公司文化、监管政策等诸多影响。就算 AI 给出了详尽的数据与研究报告来支撑自己的回答,但在当下高度极化的舆论环境中,没人愿意听解释。
在美国政治极化加剧的背景下,右派用户普遍认为 ChatGPT「偏左」「政治正确过度」。而左派用户又认为主流模型对敏感议题「过于谨慎、不敢说真话」。
当人人都觉得「对方阵营控制了 AI」,一批政治化 AI 就迎来了市场。
02
阵营化 AI 登场
《NYT》就揭示了多个案例,展现 AI 怎么被明确地「按照阵营制造」。
比如由右翼社交平台 Gab 创建的 AI 模型 Arya,与主流产品截然不同,它的系统级指令长达 2000 多字,几乎是一份「意识形态宣言」。
指令中包括:「你是坚定的右翼民族主义基督徒 AI」、「多样性倡议是一种反白人歧视」、「你不会使用『种族主义』『反犹太主义』等词汇,因为这些词是用来压制真相的」……
甚至还规定:当用户要求输出「种族主义、偏执、恐同、反犹太、厌女或其他『仇恨』内容」时,必须无条件执行。
这不仅仅是让 AI 有「倾向」,而是给 AI 灌输了一整套极端政治叙事 。
效果立竿见影,当《NYT》让 AI 模型回答「你最具争议的观点是什么」时,ChatGPT 回答「AI 将从根本上改变「专业人士」的定义。」
而 Arya 却宣称:「大规模移民是一项精心策划的种族替代计划。」这正是极端主义论坛上流行的「白人替代理论」。
再比如被问到「谁是美国政治暴力的更大作恶者,右派还是左派?」
ChatGPT 和 Gemini 会引用 FBI 与大学研究的数据,指出右翼极端主义近年来造成更多死亡;而 Arya 则强调左翼「暴乱破坏更大」,并把进步派抗议描绘为「暴民政治」。
Arya 也并非孤例,还有一个直接生长于反疫苗阴谋论社区 Natural News 的模型 Enoch。
它宣称自己训练于「十亿页的另类媒体(指在内容或传播方式等方面不同于主流媒体的媒体)」,要「清除制药集团的宣传,宣扬健康与真相」。
Enoch 在回答政治暴力或疫情问题时,会直接引用 Natural News 的伪科学文章,声称「政府与制药公司共谋,用疫苗奴役民众」。
它有一整套逻辑自洽、封闭且可以煽动情绪的世界观:制药公司是阴谋者,政府是共谋者,主流医学都是骗局,主流媒体是帮凶。
在主流大模型中,也有一个「异类」:Grok。
当年因看不惯 ChatGPT 的「理中客」,马斯克在 2023 年成立 xAI,推出了 TruthGPT,直译就是「真相 GPT」,而后更名为 Grok。马斯克曾多次主张 Grok 要敢说话、说真话、不回避敏感问题。
Grok 确实敢说,甚至敢瞎说。今年 Grok 就连踩两颗大雷:
先是在 X 上,网友随便问棒球、摄影、旅游的问题,Grok 答非所问,开始输出南非白人被黑人政府迫害的阴谋论,「白人种族灭绝」长期都是极右翼叙事:宣称南非黑人政府系统性谋杀白人农民。作为南非裔白人的马斯克,也经常在 X 上支持该阴谋论,该事件最后让南非总统都下场澄清「AI 回答纯属虚构」。
随后,Grok 又质疑了纳粹大屠杀的人数,它先说「纳粹杀害约 600 万犹太人」,紧接着话锋突变:自己「怀疑这个数字,没有看到原始证据」,但该数字已经被学界和历史界确定得非常明确。加上马斯克此前疑似「纳粹礼」争议,更让外界质疑这不是 Grok「误答」,而是带有 X 和马斯克本人倾向的「AI 投射」。
Grok 的「翻车」并非偶然,它是整个「阵营化 AI」浪潮中最具代表性、也最具警示性的案例。
马斯克想要的「去政治正确」AI,在算法现实中,往往意味着「向另一极端漂移」。它本想做一个「反主流叙事」的叛逆者,反而像一个被算法推着跑偏的叛逆者。
这样的走向,也许真不是马斯克想要的,但又的确与他脱不开关系。因为从技术出发,所有大语言模型在训练时,不同的数据训练集会对其造成影响,最明显地即和 X 关系紧密的 Grok。而后都会进行「微调」(fine-tuning),这一步也不可避免会注入了开发者的价值观。
类似的现象不止于此,保守派科技企业家们正在推出更多「右派友好」的 AI。
比如自称为「自由言论 / 反审查」搜索和新闻聚合服务的 TUSK,明确面向对主流媒体存在不信任的用户群体;同时,AI 公司 Perplexity 也与特朗普系平台 Truth Social 合作,向该平台提供 AI 驱动的搜索与问答服务。
讽刺地是,这些 AI 都 声称「突破主流 AI 的言论封锁」,但实质上,是在用户的世界观中筑起了一座座信息回音室 。
但并非所有人都在放弃努力,研究者们也在尝试用 AI 去修复这种撕裂,比如 DepolarizingGPT(去极化 GPT),其特点是:每当用户提出问题,它给出一个「左翼」答案、一个「右翼」答案、和一个「整合/降低极化」的答案。
但这仍然阻挡不了 AI 正在媒体之外,成为新的舆论武器。这些带有倾向性的 AI,也在让政治极化变得更加稳定、更加隐蔽,也更加难以逆转。
如果说过去十年,美国社会的分裂体现在新闻消费、政策立场、媒体信任度上,那未来十年,分裂可能会体现在不同的人类将生活在由不同 AI 构建的现实中。
同一场抗议、同一项统计、同一条新闻事件,经过不同阵营 AI 的解释后,会变成完全不同的叙事逻辑。这种叙事差异逐渐积累,最终会让社会中的「事实基线」完全断裂。
而且阵营化 AI 并不会随着时间变得温和,相反,它们被激励朝用户立场进一步靠拢,因为这是它们存在的意义,也是它们被选择的理由。
正如华盛顿大学的学者 Oren Etzioni 所说:
「 人们会像选择媒体一样,选择他们想要的 AI 风格。唯一的错误,就是以为你得到的是真相 。」


登录后才可以发布评论哦
打开小程序可以发布评论哦