我们正站在一个前所未有的节点上:绝大多数商业问题,已经不再是 " 做对或做错 ",而是无数可能性的叠加;而绝大多数企业,还在用上一个时代的思维,赌下一个时代的不确定。
内容怎么做?用户到底要什么?产品会不会卖?过去靠数据、靠经验、靠拍脑袋;现在,一个全新的能力正在出现——AI 不止能干活,它开始 " 模拟人 "。这听起来非常有趣,你肯定想知道:
AI 模拟用户,这事儿到底靠谱吗?
它如何成为解决复杂问题的新工具?
它怎样让 " 用户洞察 " 这件事快 100 倍、便宜 100 倍、覆盖广 100 倍?
以及,在 AI 能预测 85% 的世界里,人类该如何活在那 15% 的不可预测里?
本文仅为课程的部分内容,完整版内容请到混沌 APP 观看完整版。
现在,绝大多数的智能体都在帮我们干活(做销售、做客服等)。而我想讲一个正在越来越明显,但是还处在比较早期的智能体形态:帮助我们更好地去了解人的智能体,英文叫 Generative Agent Simulation,就是用来 " 模拟 " 的智能体。
我们经常会听到这样的问题:做什么内容好?这群人需要做什么内容?这群新兴的群体可能感兴趣要什么样的东西?这些话题其实本身不存在对与错的答案,更多的是各种各样的可能性。绝大多数我们遇见的问题都是这种可能性问题,这不是简单的数学题解方程的问题。
在学术里边,把这种问题称之为叫 Wicked Problem。学者把问题定义为两种:第一种叫 Tame Problem(可解问题),即那些可以被求解、被定义的,有确切答案的问题,即使是再复杂的方程,也是有确切答案的。还有一种就是我们在商业里面经常会遇见的,不好被定义,也无法被解决,只能暂时被改善,这种叫 Wicked Problem,也叫复杂问题。

复杂问题有一些特征。首先,它很难被明确定义,总好像是一个复合的东西。第二,它永远带来新的问题,所以没有结束。第三,只有好坏而没有真伪。
同时,没有立即获得最终的可以测试的标准,你很难测试。每个问题都是独特的问题,可以被看作其他问题的症状,比如解决贫困,很有可能就会产生环境问题和贫富差异问题。问题的存在取决于价值观的差异,我们到底以什么为优先。决策者没有办法试错,你一旦选了,你就只能一条道走到黑,没有办法再回来。
这些都是 Wicked Problem 的特征,我们在很多商业的选择里面就是这样,我们只能往前走。
解决这种问题的最通用的一种方式叫模拟。模拟的意思就是:我们建立一个沙盘,我们去做推演,做 Scenario Planning,做不同场景的尝试,来看看我们下一步应该怎么做。
我们其实一直都在模拟。比如打一场仗之前、操作复杂工具之前(不是学习工具,而是模拟不同场景下的反应)、以及升息降息、涨工资降工资等经济变化时,我们都会去模拟。

模拟的核心有一种转变:要从想把问题解决到变成一个更演化、更适应的系统。我们不再只是期待把问题的答案找到,而是要跟着这个问题去往前走。系统模拟的目的就是不停地跟着问题往前走,从而产生一种更有机、动态的状态。
模拟里边有一个非常核心的步骤,就是建模。我们的大语言模型就是一种建模,是对主观世界大环境的一种压缩。
建模其实就是控制变量法,我们把一些变量暂时搁置,试图用一种抽象的方式来描述环境和客观现实。人类科学的发展就是让更多话题可以用建模的方式来解决,从十五、十六世纪的物理世界,到十八、十九世纪的生物、化学世界,再到 20 世纪用计算方法来理解社会(如复杂理论、行为经济学等等)。
我觉得在当下,我们有机会用语言去模拟这个主观的世界,因为大语言模型可以不停地讲话,而语言是我们思维的载体。我们可以模拟内心是怎么想、怎么选择、怎么判断、怎么构思的,从而更好地帮我们理解用户、理解同事。
也就是,有大语言模型以后,我们有机会用建模的方式来理解一个人的主观世界。所以我们把这称之为主观世界的建模方法。
举一个简单的例子。如果我用大语言模型去阅读《哈利 · 波特》,把这本书作为语料喂给模型,我们就能产生一个哈利 · 波特人格的 AI 模拟。我就可以问他作为一个消费者,早上是喜欢喝咖啡还是果汁。通过这样的方式来获得所谓用户洞察的东西。

这个答案在书里没有,但通过这本书作为数据源和上下文喂给大语言模型,模型分析后就可以通过书的信息来模拟出哈利 · 波特的性格选择。这个过程就叫推理。推理就是基于上下文去做有效的下一步的猜测。因为大语言模型的运行原理其实就是不停地预测下一个词。
让大语言模型模拟一个人的消费习惯和选择,去猜测下一步他可能会做什么,这恰恰就是大语言模型最擅长做的事情。
理论上,当我们可以让 AI 去模拟哈利 · 波特,明天也可以让 AI 去模拟每一个人。
我们做的事情,就相当于用这个方法做了一个产品 Atypica。
我们通过合成数百万真实的社交帖子来生成消费者智能体,模拟消费者真实的个性、情感和决策逻辑,让你不仅理解消费者 " 想什么 ",还能理解他们 " 如何 " 和 " 为何 " 做决定。拥有 Atypica,就像拥有一个强大的研究团队。
你可以分钟级获得研究报告,只需要提出你的商业问题,我们的研究智能体(Research Agents)会阐明你的需求,规划调查,扫描社交平台。将社交声音合成为消费者智能体,发现深入的行为、价值和偏好洞察。
最后,分析智能体(Analytic Agents)将一切精炼为清晰、可操作的市场洞察和报告。
这个产品就叫 atypica.AI,它做的事情就是用大量的模拟消费者 AI,和 AI 研究人员进行大量的对话,从而产生各种各样的商业问题的答案。
比如问某个产品在南美会不会卖得很好,它可以自动拟合出南美的消费者来做测试。我们也见到做新能源车的公司,邀请一堆虚拟用户来探讨下一代 MPV 的产品概念等等。最后产生的阶段性结果是一份非常详实的报告和整个调研的过程。
这个产品或者说这一套体系主要分为三个部分:第一个部分是用 AI 来模拟消费者;第二个部分是用 AI 来模拟进行各种各样的人与人的互动访谈;第三就是 AI 输出结果。

大家都会好奇 AI 模拟消费者到底准不准?我们尝试做了两三年,直到今年我觉得这个想法的结果是有效的。之所以今年有这个机会,是因为模型的升级,我给大家举两个现在行业的科研成果。
一群斯坦福的学者在 2023 年做了一个虚拟小镇,25 个居民由 AI 驱动,自发性的进行 " 人与人 " 的互动。后来同一个团队写了一篇论文 《Generative Agent Simulations of 1,000 People》(《用智能体来模拟 1000 个随机的美国人》)。
他们用智能体采访这些美国人约 100 多个问题(2 小时),积累大量故事作为语料,输入给大语言模型作为模拟智能体的基础。然后用同样的问题问真人和问智能体,最后得到答案是 85% 的回答可以互换,就是接近一致。

这里有一大批的科研,比如说人机交互的、经济学的、社会学的,似乎都在做一件事情,就是让大语言模型加上一个上下文、加上数据,能不能够模拟扮演真人的这种随机性。
最后我们发现,这是可行的。可以通过上下文、提示词、大语言模型本身的能力等等一系列的工程方式,能够让模拟的效果达到 85%。
我们是怎么做的?基本方法就是:用语料加上大语言模型,然后产生这种生成式的人设。Atypica 可以将你的访谈记录转化为随时可用的数字化消费者(Digital Consumers)。你的语料进来以后,我们还要进行多个维度消费者的解析,去做采访或再去找数据,这样才会让这个消费者更真实。
为什么说数据不完全可行?举一个例子。我的合作伙伴经常说:" 我想通过分析社交媒体数据,进行新品研发、竞品对比、销售卖点提取,能不能爬取各个平台的全量数据来分析,小红书、抖音、微博、B 站,越全越好?"
首先,爬数据合规性是问号。第二,爬取的数据可能有延迟。第三,爬来的全量数据,99% 可能是垃圾。数据分析能真的剔除 99% 的垃圾吗?
那为什么大家不去最好的商店买东西,而去垃圾堆里捡东西呢?所以全量数据是一个伪命题。
我们经常总结:因为过去都是这样,所以我们应该这么做。世界不是线性的,归纳是谬误。通过过去预测未来是有谬误的。这些观点来自大卫 · 多伊奇的《无穷的开始》。他认为科学发现不是观察、归纳和总结,也不是看到数据就总结、归因、得出结论。而是问题到猜想,猜想到批判,批判到更好的猜想。
爱因斯坦相对论、达尔文进化论等著名猜想,都不是先有数据验证才想出来的,而是先有猜想,后有人验证,这并非自然归纳。数据归纳法在商业场景中常用,但可能只是 " 黑天鹅事件 " 尚未出现。
在AI时代,我们不应依赖大模型、大数据,而应依赖每个人的 " 大猜想 "。因此,访谈(即使是 AI 虚拟人)很重要。洞察和猜想的源泉,在于人和人的交流产生的增量,而非收敛的解题式结论。
市场变化太快,商品迭代以月为计,而传统的社媒全量数据和调研报告时效性、执行度都堪忧,我们不能一边快速迭代,一边用户理解却按年来算。
我们希望通过 Atypica 这样的产品,将用户理解的速度、成本和覆盖面都提高 100 倍。每个研究过程都有一个 Nerdy 统计按钮,有四个维度:时间(后台 10 到 30 分钟实时访谈并产出结果)、步数(交互次数)、Agent(消费者数量)和 Token(剥削的算力)。

40 万个 token 大约是一杯瑞幸咖啡的价格,我们用咖啡来定价,你可以请 AI 喝一杯咖啡,它给你结论。
我们的目的不是取代传统方法,而是解决原来用户理解太贵、太慢、覆盖面太窄的问题,我们提供一个 24 小时在你身边的用户洞察 agent。当你要做内容、商品、战略或决定时,随时有一个可以模拟的对象沙盘来问问反馈,并思考后果。
我们的产品在 AI 出海业务中发挥了真实的作用。详情请看完整版课程:

AI 既然能做到 85 分,我们就让 AI 做到 85 分,那么人做的工作是从 85 分往上做到 100 分。
我们的产品现在 100 分的产品才有机会拿出来,85 分就是底线。我们应该用好这个基础,让活去找人,不是人去找活。
第二个 85 是指模拟用户的一致性是 85% 的概率是准的。那么另外无法被预测的 15% 是什么?
想象你是一个复杂立体的人,AI 只看到你发的朋友圈、点赞的视频、写的邮件、搜过的问题,把你压缩成一个概率模型。这就是 AI 最底层的逻辑:压缩,越容易压缩就越容易被取代、被预测,越容易被预测,在 AI 时代就越容易被取代。
当你越来越正常,越来越像那 85% 的时候,你就越容易消失,AI agent 就可以取代你。
我们曾担心被误解,现在要担心的是被彻底理解,以至于再也没有惊喜,你的存在 AI 学不来,总结不出来,你写的句子它不敢预测,做的决定它没见过。
在 AI 时代,最需要做的就是一个难以被预测的人。
扫码观看完整版课程



登录后才可以发布评论哦
打开小程序可以发布评论哦