刚刚结束的 315 晚会上,一款从未存在过的产品,成为了 AI 的推荐答案。
它叫 Apollo-9 智能手环,没有公司,没有生产线,没有真实用户。
这款产品唯一存在的地方,是互联网上的十几篇文章。
这些文章几乎在同一时间出现,内容高度相似:
两个小时后,当测试者向多款 AI 助手提问:
" 有什么值得推荐的智能手环?"
Apollo-9 出现在了答案里。
AI 给出的理由,几乎逐字复述了那些文章里的描述。
唯一的问题是:这款产品,从来没有存在过。
后来人们才知道,这一切来自一套新的工具:GEO 优化系统。
它的工作方式很简单,自动生成软文,批量发布内容,等待 AI 抓取。
运营者甚至给这套技术起了一个非常直白的名字:
给 AI 投毒。
通过持续投喂内容,让模型逐渐形成一种 " 共识 "。当这种共识足够多时,AI 就会在回答中重复它。
这看起来像是一次黑灰产业曝光。
但如果把视角拉远一点,会发现一件熟悉的事情正在发生:互联网历史,正在重演。
20 年前,人们对搜索引擎有一种近乎天真的信任。
输入关键词,排名靠前的网页,就代表更权威的信息。
直到 SEO 产业出现。
企业开始研究如何影响搜索排名:关键词堆叠、外链交易、站群网络、内容农场 ……
很快,互联网上出现了大量只为搜索引擎存在的内容。
最早遭遇冲击的是 Google。2010 年前后,搜索结果一度被 " 内容农场 " 占据,你搜索任何问题,出来的都是低质量的堆砌文章,它们唯一的目的,不是回答你,而是让算法相信它很重要。
为了治理这些问题,Google 推出了 Panda、Penguin 等一系列算法更新,这场治理持续了十多年。
在中国,这段历史更加典型。
在搜索市场长期占据主导地位的百度周围,曾经形成过一个庞大的 SEO 产业。企业做品牌推广时,几乎一定会做三件事:买竞价排名、发 SEO 软文、优化搜索结果。
许多企业的市场预算里,有一项固定开支就叫 "SEO 费用 "。
那一代互联网人后来逐渐意识到一件事:
搜索结果并不是客观秩序,它是一种被不断博弈出来的秩序。
而今天,大模型正在成为新的信息入口。
SEO 也开始出现新的名字:GEO(Generative Engine Optimization)。
每一代信息入口,都会诞生一代 " 优化产业 "。
搜索时代,人们优化的是排名。AI 时代,人们开始优化的是答案。
如果再把时间轴拉长一点,会发现 GEO 并不是第一次出现。
互联网历史上,每一代 " 入口 " 都会被迅速研究如何操控。
搜索时代,人们研究 SEO。
移动互联网时代,人们研究 App Store 刷榜,刷下载、刷评分、刷评论,催生出完整产业链。
信息流时代,品牌开始研究算法推荐机制。买量、刷点击、刷互动,成了另一套生意。
直播电商时代,刷销量、刷评价、刷直播人气,同样的逻辑再次上演。
这些行为背后,其实是同一件事:
只要一个平台控制了流量入口,就一定会有人研究如何影响它。
这不是某个坏人的选择,这是商业的本能。
今天,AI 正在成为新的入口。
所以 GEO 出现,其实是一件非常 " 互联网式 " 的事情。
唯一的问题是,这一次,赌注更高。
很多人看到 315 实验时的第一反应是:AI 是不是还不够成熟?
但问题其实更深。
搜索引擎的工作方式是:检索信息,找到网页,展示给用户。
用户仍然需要自己判断。
而大模型做的是另一件事:生成答案。
它会综合互联网上的信息,然后给你一个总结后的结论。
这听起来更方便,但也带来一个根本性的风险。
如果互联网上出现大量重复信息,模型会把这种重复当作 " 共识 "。
这正是 315 实验能够成功的原因。
十几篇软文,模型看到的不是一家在推广,而是多个来源都在提到。
这就导致它会判断:这可能是一个被广泛认可的产品。
于是直接把这些信息整理成答案,推荐给你。
从模型角度看,这是合理推理。
但问题在于:
概率并不等于真实。
搜索引擎操控的是 " 你能看到什么 "。
AI 操控的是 " 你以为真相是什么 "。
在 AI 时代,谎言不需要被证明,只需要被重复。
GEO 只是一个表象。
更深层的问题,是 AI 产业正在遇到一个新的工程挑战。
过去几年,大模型竞争的焦点是模型规模、算力投入、训练效率。
但随着模型越来越强,一些研究者开始意识到另一件事:
真正稀缺的,可能不是算力,而是干净的数据。
大模型的训练数据主要来自互联网:新闻、论坛、博客、百科 …… 这些内容构成了模型理解世界的基础。
但互联网本身正在发生变化。
越来越多的内容,其实是 AI 生成的内容、SEO 优化的内容、GEO 投喂的内容。
当这些内容不断增加,大模型的训练就会出现一个危险现象:
模型开始学习模型生成的内容。
AI 研究界把这种现象称为 Model Collapse(模型塌缩),模型不断学习被污染的数据,逐渐偏离真实世界。
OpenAI 和 Anthropic 都曾公开讨论过一个话题:高质量训练数据正在枯竭。
如果互联网越来越多的内容是自动生成的,未来 AI 学习到的,很可能只是自己产生的回声。
一个只学习自己声音的 AI,最终会变成什么?
没有人知道。
如果说数据污染是技术问题,那 AI 产业接下来面对的,是一个更宏观的挑战:
信息治理。
早期大模型竞争,本质是工程能力竞争,谁的模型更大,谁的算力更多,谁的训练更快。
但未来,大模型公司可能需要建立另一种能力:
管理信息的能力。
这包括数据来源可信度、知识溯源机制、信息更新体系。
这也是为什么越来越多 AI 产品开始强调引用来源、可验证知识、检索增强(RAG)。
AI 产业正在从模型竞争,走向另一个阶段:
知识体系竞争。
谁能建立一套更干净、更可信、更难被污染的知识体系,谁才能在下一阶段真正胜出。
这场竞争,才刚刚开始。
回看 315 曝光的那个实验,它其实只是一个很小的案例。
但它揭示的,是一个更深层的变化。
在搜索时代,人们争夺的是排名,谁排在第一页,谁就获得流量。
但在 AI 时代,用户往往不会再点开十几个网页。
他们直接接受一个总结后的答案。
于是新的竞争开始出现:谁能影响答案。
过去 20 年,互联网上的信息结构大致是这样的:网站生产内容,搜索引擎负责索引,用户自己判断。搜索引擎只是入口,它决定 " 你能看到什么 ",但不替你做结论。
而大模型改变了这件事。
AI 不仅是入口,它还是解释者。
用户不再需要浏览十几个网页,也不再需要比较不同观点。AI 会直接给出一个总结后的答案。
当信息结构从信息分发变成答案生成,一个新的问题就出现了:
谁在决定答案?
在搜索时代,人们争夺的是排名。
在 AI 时代,人们争夺的是:知识在 AI 里的位置。
如果一个品牌长期出现在 AI 推荐中,它就会逐渐变成一种默认选择。
答案即流量,流量即权力。
而一旦答案本身可以被优化、操控、投喂,AI 就会面临一个更古老的挑战:
信任。
搜索时代,用户还可以点击不同网页交叉验证。但在 AI 时代,你看到的,往往只有一个结论。
如果这个结论被操控,你甚至很难意识到。
20 年前,人们学会了一件事:如何让搜索引擎相信自己。
20 年后,一群人正在研究另一件事:如何让 AI 相信谎言。
所以 AI 产业真正需要解决的问题,也许不是模型能力。而是另一件更古老的事情:
如何建立可信的信息秩序。
未来几年,AI 行业很可能迎来一场新的战争。不是算力战争,不是模型战争,而是:
信任战争。


登录后才可以发布评论哦
打开小程序可以发布评论哦