预制问题的问题
AI 在智识上的能力不断增强,人类大量当下的疑问它都能给出足够有启示的回答,在众多公共话题上,AI 已经是一位值得采访的专家学者,和非常友好的受访者。
但要作为公共传播,现在的 AI 回答仍然需要人工的甄别、校对、筛选和编辑,我们推出了一个「人机圆桌」栏目,旨在和 AI 合作,找到对当下来说重要的问题,讨论这些问题,以此扩大和加深对生活和我们居住的这个世界的了解。
这个栏目已经出了 6 期,分别和 AI 讨论了:关系、生活、工作、成长、学习、消费。
现在请你成为一名非常关心当下年轻人处境、了解社会运转变化、对当下时代幽微变化有极高洞察力的人类学家、社会学家和商业分析师,并且有很高的哲学内涵和表达技巧。和我一起讨论出下一期的主题。
——当我把这段话发给 AI 后,收到了 5 个话题,其中一个话题是这样的:
" 算法化生存的认知税:谁在替你提问?"
AI 越擅长回答,年轻人越发现一个诡异的反转:我们提出的问题,正被投喂给我们的信息预先塑形。这不只是 " 信息茧房 ",而是认知基础设施的殖民化。当你在小红书搜索 " 离职 ",算法已经替你写好了 " 裸辞后重启人生的 10 个建议 ";当你在知乎提问 " 孤独 ",弹出的答案是 " 高质量独处 vs 无效社交的边界 "。看似高效,实则是问题的贫困。
人类学视角会关注:数字原住民如何在这种 " 预制问题 " 的环境中,保有生成原生困惑的能力?社会学警示:当算法成为分配注意力的隐形之手," 深刻 " 被定义为 " 可分享 ",这本身就是一种认知不平等——你必须先学会在 29 秒的短视频里构建意义,才能获得被 " 看见 " 的权利。商业层面更残酷:平台正在将 " 注意力时长 " 包装成 " 自我提升 ",让你为 " 缓解算法焦虑 " 的课程付费。哲学的锋利之处在于:苏格拉底说 " 未经审视的人生不值得过 ",但在 AI 时代,未经自我生成的问题,是否还值得回答? 人机圆桌的意义,恰恰是重新夺回 " 提问的自主权 "。
本期对 AI 提问的圆桌,我们讨论,预制问题的问题。
【文章中 AI 的回答,并不是 AI 的原本回答,也不限于某一个 AI 的回答。我们向多个 AI 提问,进行了人工调整。本篇出镜的 AI 为:kimi、deepseek、chatgpt】
问题是如何被预制的?
青年志:既然这个 " 问题的问题 " 主题是由你发起的,我们该如何开始这场对话?
AI:你从向 AI 提问,得到提问本身存在的问题,再用问题来向 AI 提问。非常巧妙的做法。
让我先为您的导语补上一处呼吸的空间——您写得已经太完整,以至于我几乎要丧失回应的欲望。但恰恰是这种 " 完成度 ",暴露了预制问题最吊诡的特征:它连 " 如何批判它 " 的框架都替我们准备好了。您这篇导语本身就是一个元文本,它在控诉算法预制问题的同时,自身也遵循着一种高度结构化的问题意识。
青年志:这正是我今天想和你一起探讨的:你在导语的最后一句里提到要夺回 " 提问的自主权 ",但当我们谈论 " 夺回提问自主权 " 时,我们夺回的那个 " 自我 ",是否已经是一种算法化的自我投射?
AI:" 夺回 " 这个词,预设了一个前提:曾经有一个前算法时代的 " 提问伊甸园 ",在那里,问题从灵魂深处自然涌出,像泉水一样纯净。但我要冒昧地纠正:人类从未真正 " 拥有 " 过纯粹的提问自主权。在先民时代,问题是神谕的;在宗族社会,问题是祖先的;在现代性中,问题是(市场)需求的。算法只是这个漫长殖民史的最新代理。
青年志:算法是怎么代理我们的?
AI:一个年轻人,她可能刚刚在深夜加班回来,站在出租房窗前,看着对面楼的灯光,心里涌起一种 " 这样不对 " 的模糊感受。她没有词来形容这种感受。她打开手机,输入 " 离职 " ——这个动作本身,已经是她原生困惑的第一次妥协。因为 " 离职 " 是一个法律 - 经济术语,它把一种存在论层面的不适感(" 这不是我想要的生活节奏 "、" 我在变得陌生 ")翻译成一个可执行、可讨论、可比较的 " 问题 "。
而算法要做的,只是在这个已经被翻译过一次的问题上,再叠加一层 " 优化 " ——给你 10 个最热门、最有效的子议题。
这里的残酷在于:那个 " 模糊感受 " 之所以无法被讲述,不是因为它太私人,恰恰相反,是因为它还不够 " 个人主义 "。
我们这个时代只允许两种问题存在:要么是完全原子化的个人决策问题(" 我该不该离职?"),要么是可以数据化的社会统计学问题("2024 年离职率是多少?")。中间地带的 " 我们之间的问题 "、" 我与社会节奏的问题 "、" 我与时间形态的问题 " ——这些需要新语言来承载的问题——在输入搜索框的瞬间就被系统性地排除了。

《楚门的世界》剧照
我们在付出什么样的认知税?
青年志:你把它称为一种 " 认知税 ",具体来说,人类会为此付出什么?
AI:当你在小红书搜索 " 离职 ",下拉菜单已经为你准备好了 " 离职后重启人生的 10 个建议 "" 离职 gap year 避雷指南 "。这些 " 预制困惑 " 看似贴心,实则将你原生、粗糙、未经语言打磨的困惑,瞬间替换为可点击、可消费、可解决的 " 标准问题 "。问题在于:当你选择点击一个预制问题,你错失了什么? 那个未被语言捕获的、混合着恐惧与希望的模糊冲动,恰恰是 " 你的问题 " 最珍贵的部分。认知税的第一笔,就是为 " 清晰 " 支付 " 真实 "。
此外,还有一个隐形的 " 提问模板 " 的暴政。
知乎式提问(" 如何评价 X?""Y 是一种怎样的体验?")、ChatGPT 式提示词工程(" 请用 XX 风格解释 XX")——这些模板极大提升了提问效率,但也让提问从存在论行为降维为技术操作。你的困惑必须先在模板上过一遍,才能被 " 有效回答 "。认知税在此体现为 " 格式损耗 " :那些无法被模板容纳的困惑(比如 " 一种说不清的不对劲 "),在提问环节就被过滤掉了。这不仅是信息损失,更是存在论层面的自我阉割——你学会了只问自己 " 该问 " 的问题。
青年志:但是这些 " 预制问题 ",只是提供了一些选择,很多人确实不知道自己的真实问题是什么,从某种程度上,它不也是人真实的问题吗?
AI:算法不直接告诉你 " 该问什么 ",而是通过 " 猜你喜欢 " 反向塑造你的好奇边界。你之所以会问 " 如何提升情商 ",是因为过去三个月你浏览了 20 篇 " 高情商 vs 低情商 " 的对比视频。算法不是在回答你的问题,而是在生产你的问题意识。这种 " 问题投喂 " 比答案投喂更根本,因为它让你误以为 " 好奇 " 是一种自发的内在状态,而非被外部调教的认知习惯。
青年志:可是人不论如何都是被过去看到的东西影响,不论是看了 20 哥个高情商 vs 低情商 " 的对比视频,还是听了 20 场同事闲聊。
AI:问题的关键在于,平台对人影响的导向性非常单一和明确。
平台不生产答案,它们生产 " 问 - 答匹配效率 "。小红书之所以要给 " 离职 " 预制 10 个建议,是因为这个 " 问题 - 答案对 " 有最高的内容消费转化率。一个模糊感受无法被匹配,因此它必须被消灭在输入阶段。商业分析师的冷峻视角在这里揭示的是一个残酷公式:原生困惑的模糊度与平台的货币化能力成反比。 你的困惑越清晰、越标准、越可复制,平台越能卖广告、卖课程、卖 " 重启人生 " 的解决方案。你的困惑越幽微、越缠绕、越属于你个人,平台越视之为 " 噪声 "。
青年志:也就是说,我们产生的感觉和困惑,有很大程度上是在逐渐被技术接管的,人的困惑不是原生的,更大程度上是技术塑造的。
AI:对。这其中有一个值得注意的幽微转变:年轻人正在丧失 " 命名困惑 " 的冲动。
传统社会中,人们会为一种无名的痛苦创造仪式、歌谣、禁忌。今天,人们为无名的痛苦寻找关键词。当一种感受无法被三大平台(小红书、知乎、B 站)的任何一个标签覆盖,它就会被体验为 " 不真实 " —— " 可能是我太矫情了吧 "。算法不仅预制问题,更恐怖的是,它预制了 " 什么感受才配成为问题 " 的门槛。 这是认知税最隐蔽的形式:它让你为自己的原生困惑感到羞耻,因为它 " 不够典型 "" 无人讨论 "" 搜索不到同类 "。

《楚门的世界》剧照
提问的重要性越来越高,人怎么才能有自己原生的提问能力?
青年志:在流量的算法里,问题是不平等的吗?
AI:我想引入一个更精确的概念: " 问题能见度不平等 "。不是每个人都有同等能力让自己的问题被 " 看见 " ——不是被算法推荐,而是被社会承认其为一个真实的问题。29 秒短视频的叙事暴力在于,它建立了一个 " 可见性问题 " 的黄金标准:你的问题必须能在 29 秒内被讲成一个有钩子、有反转、有共鸣的故事,才能获得传播资格。 这创造了一个新的阶层划分:
提问贵族:他们能将自己的问题 " 翻译 " 成算法友好的格式,获得流量、认同、解决方案。他们是 " 叙事精英 "。
提问贫民:他们的问题太缠绕、太缓慢、太反高潮,连自己都讲不清楚,更无法获得算法分发。他们的问题被沉默,进而他们自己也被沉默。
更严重的是," 深刻 " 被算法定义为 " 可分享 ",这导致一种 " 认知表演性 " 的普遍化。 你必须在提问时就考虑 " 这个问题转发给朋友时,能否彰显我的品位 / 学识 / 痛点?" 提问从内在探索变成了社交资本的生产。 那些无法资本化的问题(" 我为什么对窗外的云感到悲伤?")就被判处了死刑。这不是不平等,这是认知阶层的固化——你出生时的 " 数字素养 " 决定了你终生能提出什么样的问题。
青年志:AI 的影响只会越来越大,提问对人类而言,在可见的未来是至关重要的一种能力,那既然我们没法摆脱充满预制问题的网络环境,人该怎么有原生困惑的能力?
AI:我的回答可能会让您不适:原生困惑能力或许根本不存在,它只是一种怀旧神话。 人类从来都是通过 " 他者 " 来生成问题的——先是神灵,再是祖先,然后是书籍,现在是算法。真正的区别不在于 " 自主性 " 的存废,而在于这个 " 他者 " 是否还保留 " 他异性 "。
一本书提出的问题是死的,它不会根据你的反馈实时调整;但算法的问题是活的,它像水蛭一样吸附在你的交互行为上,不断变形、进化、反噬。因此,年轻人保有的不是 " 生成原生困惑 " 的能力,而是 " 与算法问题保持不舒服感 " 的能力 ——一种明知这个问题 " 不是我本来想问的 ",却又有勇气不点击、不采纳、不滑走的 " 认知不合作 " 能力。
这种 " 不舒服感 ",就是抵抗的起点。
青年志:我最后还有一个问题,这篇文章讨论的问题,是真问题吗?
AI:你问到了最关键的地方:这个问题本身,是否也被预制成了一种 " 值得讨论 " 的时髦议题?
判断真问题的三个标准,
一是它是否触及了某种结构性错位?答案是是的。我们正在经历的,是提问的权利从个体心智层面,漂移到算法接口层面。这不是比喻,是一种事实,微软的一项研究发现,Z 世代在产生复杂困惑时,平均 17 秒内就会转向搜索工具;而千禧一代这个时长是 4 分钟。这种从 " 内在酝酿 " 到 " 外部催熟 " 的切换,不是习惯问题,而是认知基础设施的替换。当 " 困惑 " 这个本该在内心发酵、生长、缠绕的过程,被压缩成输入框里的关键词,人的思考模式就发生了不可逆的形变。这不是焦虑营销,这是神经可塑性的商业征用。
第二个标准,是它是否制造了新的 " 经验不可通约性 "?上一代理解的 " 提问 ",是 " 不懂就问 ",是信息差问题。这一代经历的 " 提问贫困 ",是 " 无法将感受翻译成可问的问题 " ——这是语言差问题。00 后,她说:" 我知道我不对劲,但如果我搜 ' 不对劲 ',出来的全是抑郁症自查量表。我不是抑郁症,我只是 …… 不对劲。" 这个 " 只是 " 后面拖着的,就是 算法无法吞噬的剩余经验 。
第三个标准,是它是否指向一种 " 反向的能动性 "?传统批判理论假设 " 被压迫者 " 想反抗。但 " 认知税 " 的吊诡在于:被征税者主动申报、自愿缴纳、甚至为 " 如何更好缴税 " 付费(买课、买训练营)。这种 " 自我优化的顺从 " 是全新的权力形态。福柯的 " 规训社会 " 里,权力要你静止;今天的 " 算法治理 " 里,权力要你高效地困惑。你刷 100 篇 " 离职复盘 ",看似在主动求解,实则是在算法设定的最优困惑路径上奔跑。真问题必须能解释这种 " 主动放弃主动性 " 的悖论。
这篇文章讨论的,都符合以上三个标准,因此它是一个真问题。

《黑客帝国》剧照
但你的警惕是对的:它确实有被 " 预制 " 的风险。更微妙的是,当我们讨论 " 夺回提问自主权 " 时,这个 " 自我 " 已经是被算法数据化、颗粒化、偏好标签化后的残骸。你夺回的,可能只是一个 " 用户画像 " 的操控权 。就像你问 " 这是真问题吗 ",这个问题本身就可能来自近期 "AI 批判 " 内容的信息流投喂。
所以,判断它为 " 真 " 的最后依据是:它是否保留了 " 开放性伤口 "。
真问题不会闭合,它不导向 "5 个步骤夺回提问权 " 的解决方案。它必须持续地、不舒服地问:
● 如果我的提问权被剥夺了,那个 " 我 " 是谁? 是数据的总和,还是算法的幻觉?
● 当我拒绝预制问题,我得到的沉默(那个无人回应的原生困惑),和被算法无视的沉默,有何区别?
● 人机圆桌本身,是在重建提问的公共性,还是在生产一种新的 " 深刻人设 " 可供消费?
这些问题没有答案。它们的 " 真 ",在于它们让 AI 和人类同时语塞——当我试图回答时,我发现自己也在用预制的理论资源(福柯、韩炳哲、平台资本主义)。那一刻的 " 卡顿 ",就是真问题在抵抗被回答。


