
12月17日,在钛媒体2025 T-EDGE全球对话中,「赵何娟 Talk」(Jany Talk)进行了一场意义非凡的关于AI的对话。这次邀请的嘉宾是源码资本投资合伙人、美国国家工程院院士张宏江。
ChatGPT发布三周年,以"大模型‘拐点’之年,AI下一个十年看什么"为主题,赵何娟与张宏江再次进行了一场关于AI的深度对话。在这次对话中,张宏江指出,今天超级智能的出现,是人类第一次见证,一个技术革命最终会消灭工作。

视频对话截图
最近在硅谷有两家初创公司,是由一些非常强的人创办的世界模型和AI科学家公司,人还没有到齐,公司网站还没有正式上线,其估值就已经到了40亿、50亿美元。
在张宏江看来,很重要的一点就是人们对于世界模型或下一代模型还是有着非常高的期望,所以人们会下这种重大的赌注。
对于这些新成立的大模型初创公司,张宏江指出,"他们没有放弃模型,模型本身就是兵家必争之地,但是他们并不是去重复竞争,而是在寻找新的突破口。这个突破口就是世界模型,很可能是类似这个AI科学家这样的模型。"
而针对Open AI联合创始人、前首席科学家、"ChatGPT之父"伊利亚·苏茨克韦尔(Ilya Sutskever)在公开讲话中的言论,"scaling law 差不多到头了,如果继续依赖 scaling law 来推进模型发展,那将是一条错误的路线。"
张宏江表示,"他的话其实造成了很大的误解,所以他很快就在找补。然后很快又发了一个补充,说他的意思不是说 scaling law 到头了,而是说我们从技术上应该不断地寻找新的路径。"
同时,张宏江也指出,"今天的 scaling law 效率肯定不如五年前或者三年前,它的上升曲线会变得比较平缓。推理模型的scaling law 其实还有很长的路要走。Transformer 不是唯一的架构,而是到目前为止最有效的一个架构。"
针对现在很多人都在看 Google 和 Open AI两家公司,一个大公司,一个创业公司,各有各的优势,对于未来 Google 和 Open AI哪家赢面更大,张宏江直言,"现在就给 Open AI、英伟达下结论还太早。 PC 时代,端到端的苹果和wintel 的开放生态,最终是谁赢出,已经很清晰。到了移动互联网时代,这两个系统是共存的,也许未来 AI时代,两个系统或者甚至更多的系统会共存。"
随着推理模型能力的不断提高,Agent的能力也会随着提高,尤其是推理模型会推着 AI往前走,张宏江预计在12个月到24个月内,可能AI会有非常大的突破。
他相信2026年,具备非常强的自主运营能力的Agent会大量出现。而端侧AI,目前像AI手机、AI眼镜这些硬件,主要还在做交互,其智能还都在云端。
谈及AI的泡沫,他认为,中国的机器人赛道泡沫是最多。相比美国基本上两个手指都能数过来的机器人公司,中国可能有上百家机器人公司。但在世界模型没有突破之前,具身智能很难做到通用。在他看来,这条路还很长,不是三到五年的事,而是五年到十年的事。
中国制造是强项,在本体上显然走在了前面。但张宏江指出,今天大部分的本体实际上还是处于遥控状态。"今天我们的具身智能的模型还没有达到这个通用的泛化能力。"

张宏江将今天机器人的状态,比作它还没有做出一个通用的"发动机",还没有到一个通用的"发动机"的时代,也就是等于"发动机"还没有过关。
对于马斯克宣称特斯拉机器人将要量产百万台,张宏江认为这有可能实现,因为特斯拉有自己的工厂,本身就有很多应用的场景,其机器人是工业的一类任务的机器人,不是一个工业的通用机器人,但实际上就已经很有意义了。
一旦工业机器人变得泛化,它会把整个工厂里面这些流水线上的工作全部取代掉。张宏江指出,以前任何一个新技术的出现和使用,都会消灭一些工作,减少一些工作,还会创造更多的工作出现,使得人们经过重新培训,能够在新的领域就业。但今天超级智能的出现,它的使用会减少很多工作,最终会消灭工作。
虽然如此,但在大模型时代,张宏江认为,会出现一些超级个体,会出现一人的独角兽,个人的能力会进一步拉开,人的收入也会进一步拉开。
以下为「赵何娟Talk」与张宏江的完整对话的实录:
赵何娟:大家好,欢迎大家来到这一期的赵何娟 Talk。这一期很有幸请到了我们的老朋友,张宏江老师,他是源码资本投资合伙人、美国国家工程院院士。
三年前,在2022年12月初的钛媒体T-EDGE 大会上,宏江老师做了关于《ChatGPT和AIGC:Al 大模型发展和机遇》的分享,是国内第一个将ChatGPT详细讲清楚的人,当时ChatGPT其实刚刚发布没几天。
今年又发生了很多看起来像拐点性的重要事件,比如Gemini 3.0的发布,被很多人视为ChatGPT最大的挑战者,甚至有人认为它已经超越了ChatGPT。也有人认为今年是Open AI有史以来遇到最大危机的一年。危机既来自 Google这样的竞争对手的挑战,也来自巨大的基础设施建设投入,以及它的债务模式遭到了华尔街的狙击。
所以从种种因素来看,我觉得今年会是Open AI的一个很重要的转折点,但也有人认为这可能是它重大调整的一个重要分水岭。
很有幸再次请到张宏江老师跟我们一起来分享并深入探讨这些AI相关的全球发展问题。
张宏江:非常高兴与何娟做这个对话,我记得非常清楚,当初ChatGPT刚刚发布,还不到一周的时候,我们就探讨要聊什么话题,何娟对行业趋势非常敏感,说我们谈大模型。所以三年前,我们第一次谈了大模型,当时还重点强调的是这个内容的生成。因为ChatGPT它的模型本身是一个生成式的模型。
我们看这三年的话,比如未来十年、三十年、五十年之后,我们再往回看,我们看过去100年的一个新技术的出现,然后它的头三年会怎么样?我相信大家会确认过去的三年,是一个新技术发展最快的三年,也是一个技术从出现到用户过亿,这样最快的三年。
推理模型和基础智能体的区别在变得模糊
赵何娟:请您用一句话来概括AI这三年发生的最本质的变化是什么?
张宏江: 三年前,在ChatGPT出现之前,我们谈AGI,我们都认为那不是我们这一代人所要考虑的问题,这是一个未来的问题。当ChatGPT出现后,无论是因为它一本正经地胡说八道的这种幻觉,还是说它这种高能量、高性能的涌现,都让我们认识到,AGI是触手可及的,AGI是我们可以看得到的目标。这是ChatGPT当时发布给人们的一种震撼。
在这三年中发生了太多的事情。我们知道Transformer通过这种非常高智能的预训练模型,让人看到了路径和方向,大家都一拥而上。无论是美国还是中国,大家都一拥而上,诞生了很多大模型初创公司。
三年过去,我们看到的首先是这个叫 scaling law,其实在中间起了非常大的作用。第一年就有人说scaling law到头了;第二年还有人说scaling law到头了;第三年,在谷歌Genmini发布之前,依然有人说这个scaling law要到头了。
Genmini技术负责人明确说"it's far from hitting the wall"。这在我看来是过去三年我们看到的一条主线。
另外一条主线,就是当我们从基模(base model,pre train model)到推理模型的跨越。等于是我们将传统的知识记忆方式的大模型,跨越到能够基于这个模型,用强化学习的方法训练出更强的推理能力。
2024年,OpenAI的o1发布,这是一个新的里程碑。过去这一年,我们看到在这个里程碑上,又开始出现了Agent能力的突破。
如果看一下最近的两个新闻,一个是Gemini 3.0,它有着超级强的推理能力;另一个是上周发布的DeepSeek V 3.2,它尤其强调推理和Agent的能力。如果我们看过去三年的三部曲的话,那就是预训练模型、推理模型、智能体这三部曲。
另外一条主线,我们更多的是看应用。当ChatGPT 出来的时候,人们第一个想到的是 Chat,它可能会替代这个搜索,它的应用是内容的生成,这是一条线,但事实上它带火了另外一条线就是机器人这条线。
然后沿着这条线,就是人们对于世界模型的这种追求。最近无论是李飞飞的World Lab,还是Yann LeCun(杨立昆,前Meta首席人工智能科学家)最近从Meta 跳出来,要在纽约、巴黎、新加坡等地组建他的新公司,还没有起好名字,但是公司核心的人已经到位了。
从纯粹纯语言模型到多模态,然后从多模态跨越到世界模型,人们对于世界模型的追求,除了多模态的这种追求之外,很大程度上是因为他们追求这个未来的通用的模型或者通用的机器人。
所以,总结来说,基模、推理、智能体这条线,涵盖了从语言大模型到多模态,再到世界模型这三条线。
赵何娟:我们把这三条线统一来看的话,是不是都可以归结为在基础大模型发展上面的一个跃迁,而不是在应用层的跃迁?
张宏江:是的。而且如果我们看Gemini 3.0,还是这两天大家都在热议的ChatGPT 5.2,还是上周发布的这个DeepSeek V 3.2,其实大家都在强调推理和智能体的能力。
这三个发布,如果留意就会发现,其实这个推理模型和基础智能体的区别在变得模糊,也就是说模型的能力在往上增长的时候,其实会进一步模糊智能体之间的界限。当模型本身已经具备工具的能力,其推理能力强到能够完成很多任务的时候,实际上本身就是模型的能力。这是我们看到的一个非常重要的突破点。
赵何娟:这个是不是通用模型和通用 Agent之间的边界变得越来越模糊了?
张宏江:是。然后还有就是我刚才想到的第一条主线scaling law。一年前,大家开始怀疑 scaling law的可持续性。我们说也许在预训练的时候,这个 scaling law 会变缓。如果你最近看Gemini 的发布,它们第一点谈到的就是它们的基模,那个pre training model 有了非常大的进步。
从Open AI的首席研究官 Mark的访谈来看,他其实很委婉地承认了他们过去两年在基模上没有持续提升 pre train model(预训练模型)的能力。
而恰恰在这一点上,Gemini 3.0 有了重要突破,进一步证明了这一点。第一,这个预训练大模型的 scaling law还远远没有到达顶点。
无论是从 Demis( 谷歌DeepMind首席执行官兼联合创始人德米斯·哈萨比斯Demis Hassabis)所说的,他说即使有人认为其性能改善是Margin,但这个Margin 也远远超出我们投入的 Margin,也就是说投入产出依然成正比。因此,你还是可以在基模方面继续发展。他的技术负责人表示,这跟大家想象得完全相反,基模的 scaling law这次又发挥了非常大的作用。
而这个推理模型,它的 scaling law刚刚开始。如果你仔细看DeepSeek V 3.2的那篇报告,它是这样描述的,如果我们有更多GPU,我们的模型能力可能就不是现在这个模型的参数性能,而是会更好。
事实上,他们是在强调算力对性能的重要性,尤其是在推理模型上。因此,基于以上这些,我们可以基本上确定,这个基础模型,也就是这个预训练模型还没有到头,依然需要更多的数据,依然需要更多的算力,依然会有很大的改进空间。这个推理模型事实上它是刚刚开始。
所以当我们让这个基础模型的能力不断地改善,推理模型和这种通用智能体的边界其实是非常模糊的,也就是模型会持续在往上涨,会把这个边界往上推。那么现在模型已经开始在应用这块做得非常强大了。
为下一代模型下赌注
赵何娟:最近OpenAI联合创始人、前首席科学家、"ChatGPT之父"伊利亚·苏茨克韦尔(Ilya Sutskever)在公开讲话中表示,scaling law 差不多到头了,如果继续依赖 scaling law 来推进模型发展,那将是一条错误的路线。毕竟他是ChatGPT的缔造者,所以他的话还是蛮有分量的。宏江老师您怎么看?
张宏江:他的话其实造成了很大的误解,所以他很快就在找补。然后很快又发了一个补充,说他的意思不是说 scaling law 到头了,而是说我们从技术上应该不断地寻找新的路径。当然,你今天的 scaling law 效率肯定不如五年前或者三年前。然后它这个上升的曲线会变得比较平缓。但是我们看DeepMind 的CEO戴密斯·哈萨比斯(Demis Hassabis)所说的就是仅靠扩大模型参数量已出现"收益递减"现象,但相关投入"依然极具价值";另外就是在推理模型这块,scaling law 其实还有很长的路要走。
我其实非常敬佩伊利亚,他是一个非常有远见的人,他在 Open AI也是技术的主心骨。那么,他谈到更多的是,在 scaling law 的同时,我们应该寻找更有效的神经网络架构。我相信Transformer 绝对不会是唯一的架构,而到目前为止它是最有效的一个架构。
过去这三年,我们也看到很多学术界对它进行的研究与改善,包括 Google 最新Gemini 3.0发布的一些改善,但是到目前为止,我们还没有看到一个可以替代的架构。
当然我们对于这个世界模型的这一波研究,对于世界模型的这一波创业者,包括李飞飞的公司,包括Yann LeCun马上要成立的公司,包括一系列其他的公司,其实我们对他们还是充满了信心。
最近我在硅谷听到有两家由一些非常强的人出来做的世界模型和 AI科学家公司,人还没有到齐,公司网站还没有正式上线,其估值就已经到了40亿和50亿美金。
这个很重要的一点就是人们对于世界模型或下一代模型的期望,其实还是非常高的,所以人们会下这种重大的赌注。
但另外一点,它这种融资的规模,这么高的估值,其实是因为它融资的需求,他们起点的融资就是好几亿,那这就得证明他们自己还是需要大量的资源去训练他们的模型,这中间包括 GPU、IDC、数据的资源。
我们当然希望能够有下一个架构上的突破,但是我们知道这不会是一个一两年就可能看到,会突破的这么样的一个东西。但事实上,我非常高兴地看到在美国硅谷这个创业公司已经出现,而且投资界对他们充满了希望。
赵何娟:看来这个模型现在还是兵家必争之地,还是在很早期,说明还没在应用。
张宏江:但是有一点,就是说中国有所谓的六小虎,但还是不断有人往里面涌。刚才我们说到这两家估值40亿、50亿这样的创业公司,他们其实在做不同的模型,这个模型已经与 Transformer、 GPT 这样的模型不同,他们寻找的是不同的架构。
赵何娟:就是他的世界模型没有结合 Transformer吗?
张宏江:我觉得未必完全没有结合,但他们一定在寻找新的这个获取世界模型的这种知识。刚才说的 AI科学家他的使命是什么?用 AI来改善 AI,就是Using AI to improve AI,那这实际上是一个 AI科学家的概念。这种模型可能更多的是这种强化学习,推理这样的模型。
他们没有放弃模型,模型本身就是兵家必争之地,但是他们并不是去重复竞争,而是在寻找新的突破口。这个突破口就是世界模型,很可能是这个AI科学家这样的模型。
评判模型的能力不能只看"跑分"
赵何娟: 您刚才也说,再有新的玩家进来,其实它是在有创新的方式来做模型,而不是说重复竞争。这个是好的,但是如果我们来比较一下做大模型的核心能力,现在也有两种声音,一种声音就是还是要有评价体系,还是要跑分。就类似于像我们以前说手机跑分一样的,就还得要跑分,要有一些固定的标准,然后去测试。也有一种声音说这个是不重要的,重要的是它到底能有多少的生产力,到底能起到多少的作用。
所以从您的角度来说,如果我们要来对核心的这种大模型来做能力对比,怎么来看出他们的差距?有哪些维度可以来评价他们?
张宏江:这其实是一个非常好的问题,也是一个非常难以回答的问题,因为我们今天看模型的话,或者是说我们以前测这个手机的话,这些其实基于过去我们定义的一些问题,然后来衡量今天的模型。
比如 HUMANITY’S LAST EXAM这样的数据集,我们定了这些问题,是因为我们认为这些工作本身,即使人们来做的话,也非常困难。就像图灵实验一样,我们以前定义机器过了图灵测试就是AGI,但今天,显然我们知道图灵测试已经很难反映出我们对于AGI的这种测量。
但是我们始终还是需要找到一些所谓的这个这种客观的指标来做衡量。我们现在看到即使这些指标做得非常漂亮,但实际的应用中,我们依然看到有的时候这个表现是非常糟糕的,在一些常识的任务上就做得非常差。
这就是我们今天所面临的问题。无论是Transformer 这种架构,还是这个预训练模型之后的对齐,还是这个推理模型,依然有一些我们今天还没有摸透的地方。当然,最终的话,你一定是由他来完成这个你所需要让他完成的任务,这样来对比的。
我觉得这个可能2026年大家就会开始吧。但是我想要说的是任何一个新的任务集,你很快就会发现模型能够在上面达到很好的分,但并不意味着这个模型真正具备了通用的智能。
当然,我们在不断地往那个目标去走。一开始 ChatGPT ,我们实际上就看它能不能回答我们的问题。然后今天我们已经有了推理模型。我们已经在测试它们,解决我们所希望它解决的问题,或者我们让它完成的任务,那么未来,也许它从我们的对话中定义出我们想要完成的任务。所以这是一步一步往前走的。
赵何娟:我感觉怎么有点像更考验的其实是人类的想象力呢,想到这个任务,就肯定很快能完成,关键是我根本想不到什么样的任务是给它,让它完不成的。
张宏江:对。还是有很多问题,它其实完不成。我想有几个能力,还是一些比较通用的能力,就是我们可以把它作为一些客观的这个标准来做的,比如说今天的这些任务,我们可以来定义越来越多的任务。
还有就是从数学上比较容易定义的,比如推理模型,它能够思考的场景,它能够思考的长度,这个其实本身是一个很重要的标志。
也就是说,我们人类有这个快思考和慢思考,慢思考就定义了我们人的这个智力的上限。那这个慢思考,就是如果我们的推理模型能够思考的时间很长,可能是我们真正的一个非常大的进步。
赵何娟: 其实您刚才也说到,现在有很多在想突破 Transformer 这个底层理论限制了一些新的创新尝试。陈天桥先生(盛大集团、天桥脑科学研究院创始人)其实也在做相关的研究,就提出来一个叫发现式智能,他重新定义了五个标准来做。作为新的一个标准,而不单纯是说我不断地堆算力。您怎么看他提出来的这个发现式智能?
张宏江:他本身也是做了一个模型出来,他也在跟其他的模型做能力的对比。前几天和另外一个朋友,和天桥做了几个小时的头脑风暴。我们没有花很多时间在技术底层上,但是我们谈到这个AI的未来。我的理解是天桥他其实在他的过去十年里,激情所在是在搞脑科学,他希望能够从脑科学里面寻找出另外一条通往通用人工智能的路径。
他和其他的很多人不一样的地方,包括一些科学家不太一样的地方,因为他确实有资源,他不光是想,而且付诸行动,在北京、上海、新加坡、硅谷建了一个很大的团队,也资助了很多这个学术界的科学家来探索这件事。
他尤其强调 long memory长记忆对于智能的这种重要性。从长记忆的角度来看,我想这是一个非常有意义的探索。
Google 与Open AI最终谁会赢?
赵何娟:整个行业其实都还是在探索。您刚才说脑科学这块,我就想起前些天我不是刚跟 Geoffrey Hinton 做了一期播客直播。然后 Geoffrey Hinton 也在说,他其实是研究脑科学的,但是他觉得他这辈子的研究其实很失败,因为他在脑科学上没有什么特别大的建树。结果他的副产品,基于神经科学研究出来的这个 AI和神经科学的结合,反倒成了比较大的一个突破。就是副产品成了,但他的主业,其实他自己定义主业不是特别成功。
张宏江:他是比较谦卑吧。
赵何娟:对,但脑科学和 AI这个肯定有相关性的,对吧?
张宏江:他在爱丁堡读博士的时候,确实研究的神经科学。虽然他从神经科学出发,但他研究的核心,并不是像生物学家那样去研究神经。他实际上是为了研究这个认知科学。他是很谦卑地这样说,他可能意思是说在神经科学这块,或者是在认知科学这块,没有特别大的贡献。
但是在认知科学这块,如果我们把神经网络、把深度学习看成认知科学的一种方式,我认为他是非常成功的。如果我们今天看突破的话,其实对于整个技术的发展,我觉得他的这种突破实际上是有更大的意义,这也是为什么诺贝尔物理学奖会给他。
赵何娟:所以有时候就是无心插柳柳成荫。
张宏江:我觉得他不是无心插柳。其实我觉得事实上是我们这个研究领域,或者是科学家里面,尤其是中国的科学家里面所缺乏的,就是他对于一个问题的探索,还有保持这种极强的好奇心和热情。
无论是他在读博士期间,还是他当初从英国到美国到卡内基梅隆大学,在卡内基梅隆大学再碰到一系列的困难,然后又去了多伦多大学。他经历了整个人工智能,就是神经网络那一波非常黑暗的时期,我们把它叫做黑暗时代,也就是80年代末到这个世纪的头五年,就是没有任何一个国家给科学基金,或者是这个政府在给神经网络的研究基金。但他依然在坚持,一直到他在2005年提出深度学习概念之后,无论是机缘巧合也好,还是因为被他感动也好,加拿大的国家科研基金批了他的这个项目,从而才有了这个十年后的AlexNet,才有了这个在 ImageNET (一项图像识别竞赛)上如此大的这种突破,然后奠定了我们对于深度学习的这种信心。所以这一路走过来,我觉得他是非常了不起的。
赵何娟:他很多认知还是挺超前。虽然现在很多人都对他很有意见,觉得他一直在讲风险,但我觉得他的认知就是超前的,这个东西未来一定是有很大的风险。
张宏江:我想人们对他的这种最新的 AI的风险的理解,用在做大模型的这波从业人员的话,可能更多地会认为他那个时间还比较久远,可能是未来20以后的事,大家可能是顾不上。
如果我们来看,ChatGPT 就是 GPT 本身的那种以Transformer 为基础的这一波的突破,在五年前能看到这一点的其实并不多。包括 Transformer 这七位作者在 Google做出了 Transformer 之后,他们本身也并没有意识到这个在他们做出来以后,五年会有这么大的一个突破。如果他们要知道的话,那么他们以这个 Google 的资源,也许就没有 Open AI什么事儿。
赵何娟:我跟 Geoffrey Hinton 教授聊的时候,他还提出来一个判断,他认为首先就是人的判断,他对 Sam altman 是非常有意见的,觉得这个人不行。但是我们抛开人的判断,就是从企业和模型发展本身来说的话,他认为这是一个整体。他觉得 Google 从生态能力,然后从现在的技术领先性等各方面,他认为跟 Open AI的发展来说,他觉得 Google 会赢。
现在很多人都在看 Google 和 Open AI两家公司,你追我赶,一个大公司,一个创业公司,创业公司有创业公司的优势,然后大公司有大公司的优势,原来可能都倒在 Open AI这边的,现在开始慢慢往 Google 那边重新迁移,您觉得 Google 和 Open AI哪家未来的赢面更大?
张宏江:这其实是一个很难回答的问题。实际上我们要从几个方面来谈。第一,我其实对于这个科学家来看企业的未来或者看产品的未来,我从来都是有保留的。因为我自己本身是从那一路走过来的。当我们在做研究的时候,我们其实看产品或者看公司的发展是看得非常不清晰的,非常模糊的。我们很可能只是从学术,从技术本身来看,事实上,一件事情的成功远比这复杂得多。
我们不能忽略的一个事实是什么?就是说ChatGPT 出来三年之后,Gemini 3.0 才终于赶上 Open AI,在很多方面超过了。那是一个非常了不起的一件事儿。这中间,其实我觉得它的问题不在于因为 Google 有更多的资源,而是说他们真正地把执行力提高了。
因为 Google 它的这个资源比那个 Open AI多,它的人才密度就比 Open AI要高。上一代的 AI,谷歌就是领军的企业,更不要说有 Deepmind 在强化学习领域这样如此之强的这么一个团队。
今天我们看 Google 的话,Google 未来能不能持续地引领?很重要的一点就是它的优势在哪?它的优势在于它是一个 Full stack,因为它是全栈的这种优势。当它把所有的能力聚在一起的时候,它的爆发是可以非常强大的。
今天我们在Gemini 3.0上看到了这种爆发。它能不能够持续利用他的这种全栈的能力,能不能持续把它做成全栈,这其实是下面它所面临的挑战。
但是它的成功也就说明了几点,就是这个 AI所谓的三要素,算法、人才、数据,它现在三个都做到了,而且它三者之间的结合做得非常好,就是它执行力做得非常好。
那么往下走,显然 Open AI会面临着很大的挑战,面临一个非常强大的竞争对手。当然我相信Open AI他们自己过去这两年也犯了不少的错误,他们自己内部也有些动荡,包括一年多之前换 CEO风波、CTO出走等。
如果我们注意到他的首席研究官 Mark 上个礼拜的访谈的话,其实他们透露的一点就是过去两年,他们事实上在技术模型上,就是在预训练上,他们没有花功夫,这可能有几方面的原因,可能是他们资源不够,他们说可能算力不够,所以他们只能选择在推理模型上,预训练模型上有所侧重。
他们可能认为他们自己的o1模型本身已经足够强,所以他的这个资源和精力花在了推理这块,花在了探讨更多的应用这块。
我希望这个Geoffrey Hinton给他们一个唤醒吧,从而使得他们能够聚焦,能够真正把这个他想要做的事情,做一个优先级的排序。作为一个依然还是创业阶段的公司,希望他们能够迸发出更强大的力量吧。
好消息是说一个产业,尤其是一个快速发展的产业,一定是在竞争的环境中间,才能够快速成熟。所以我觉得有这么一个强大的竞争对手,对于 Open AI也好对于未来的 AI用户来说,其实是一件大好事。
就ChatGPT 5.2的话,其实可以看到,他们在过去这段时间还是储备了不少东西,所以他们很快地发出一些新的东西来。
赵何娟: 您觉得ChatGPT 5.2的这个水平,还是保持着最领先的那个位置吧。
张宏江:他们彼此有互相领先的地方吧。所以说以前的话,这个 Open AI一骑绝尘。今天我们反过来看Gemini 2.5的话,跟Google 5.0比起来的话,其实就差得很远。今天的话,至少从模型本身,两者可能是相当接近了。我相信未来,也就是你往前走一步,我往前再追一步,或者超过你,然后这样往下走。 Open AI一个很大的优势就是它一个 ChatGPT 应用,已经有了八亿的这个周活跃。
赵何娟: 那这个跟 Google 的20亿还是没法比。
张宏江:它的20亿不是在一个模型上的用户,是它的应用的用户。你可以这么说,那个 Meta 的用户也很多,但并不是它的模型的直接的用户。所以这种Machine share 的话,其实还是需要花很长时间来改变的。
如果能够持续地快速迭代,持续地改善它的用户体验。这个对于那些在过去三年一直用 ChatGPT 的人来说,他们往外转换过来的这个成本还是相当高的。我觉得他们还是有他们的希望,因为最终人们还是看它的整体体验。
刚才我们前面提到的评判指数 ,这个指标的数字上超过了竞争对手,未必会真正体现在用户的体验上。
赵何娟:这个其实就是前面讲那个模型能力对比的时候,到底用什么来做模型能力对比的评判。就像我们的两个孩子,你说谁的能力强,一定是考试分数高的那个能力更强吗?也不一定见得。
张宏江:综合能力未必,确实是这样。
赵何娟:所以双方还是各有优势。
张宏江: 因为Gemini 3.0出现时,他们对外宣布的时候明确地告诉大家,他们是在 TPU 上训练出来的,所以人们立马会想到TPU 会不会打败 GPU?那 Google 会不会让那个英伟达从此一蹶不振。在股市上,我们已经看出人们的这种疑问,过去这几个礼拜,英伟达股票所面临的压力。
然后TPU 作为一个专门做训练深度学习的这么一个芯片,显然有它的优势。咱们做了一系列的比较,英伟达的GPU,讲的是通用GPU,再看一看它的这个利润,利润空间让人们都会羡慕嫉妒恨。
今天终于有一个竞争对手,未来是不是就会打败这个英伟达?我们看一下,Google 它是一个所谓的 Full stack, 意味着就是端到端全栈。从这一层,你要跟过去的 AI时代对比的话,它很可能像移动时代的苹果,但是安卓体系(这种分工的体系)也依然很强大。
这个模型运用这种分工的体系,有它自己的优势。虽然它不是一个全集成全栈在一个公司,但可能比一个全栈的公司做得更好,如果这个生态能够结合得非常好的话,大家彼此真正地紧密合作的话,也许这种开放的生态,会比一个封闭的端到端的生态效率更高。
当然这个,我们还是拭目以待,我觉得现在就给 Open AI、英伟达下结论还太早。如果你看 PC 时代,端到端的苹果和wintel 的开放生态,最终是谁赢出,已经很清晰。到了移动互联网时代,这两个系统是共存的,也许未来 AI时代,两个系统或者甚至更多的系统会共存。
算力依然是瓶颈
赵何娟:我们现在其实谁也不知道,别说三年之后,十年之后,可能三个月之后会发生什么都不知道,因为我一直是 AI的研究者,当然在关注这个发展,同时我自己也在做那个 AI的新闻应用APP(NextFin)。我就是关注很紧,但即便像我这种关注特别紧的,我都觉得这个变化之快之大,经常都是应接不暇。
去年我们还在谈算力的瓶颈,怎么买英伟达的卡,这个卡的性能的变化,出了几代,然后有哪些不同的型号?到今年,尤其是今年下半年之后,突然画风一转,瓶颈不是算力了,变成能源和电网了。微软的 CEO 自己都在说,现在缺的不是算力,缺的不是芯片,是数据中心没有电,芯片都在数据中心蒙灰。
您怎么看现在的这个从算力到能源的瓶颈的转移的这个趋势,您觉得这个趋势尤其在美国会持续很长的时间吗?
张宏江:我其实不像你刚才谈得那么悲观,我觉得最终这个缺的还是算力,为了建这种算力,你需要能源跟上,你需要 IDC 跟上。实际上它有三件事,一个是芯片的这个生产能力,可能最终卡的就是两家公司,一个叫台积电,一个叫博通。
设计芯片的包括英伟达,包括这个 Google ,包括一系列其他的公司,我觉得这个最终卡的是芯片资源。
如果你看美国的问题跟中国相比的话,就是它在建 IDC 这个速度太慢。就像黄仁勋所说的,从一个 IDC 立项到真正落地运行,可能要三年的时间,但是也有快的,比如马斯克的 AI公司XAI,他们的这个十万张卡集群12个月就建起来了,再加六个月就变成20万的卡。
美国的问题不是说他不能够发电,因为他不缺能源,它实际上缺的是电网的能力。所以马斯克它刚开始建的时候,它搞了一大堆的这个柴油发电机,还引起了周围居民的抗议。
事实上,就是说它的问题在于电网,未必是说它没有天然气。有时候我们也知道,就是它这个发电机产能已经定到2027、2028年了。
赵何娟:但是天然气的产能好像说也是到二○三几年就要到峰值了。
张宏江:因为今天你已经看到大家在呼吁这个问题,以美国的创造力,以美国的这个资本的效率,我觉得这恰恰是问题就开始解决了。
如果我们还是按以前的电网的这种进度,我们到明年就不够用了,但事实上,我们明年可能还不会看到大规模的这个电力,我想这个会跟得上。
看那个 Oracle(甲骨文)的财报,它的问题就是它的 IDC 建设的速度跟不上它的需求。所以我认为最终还是算力,当然这种算力最终这个供应,它可能会被电力卡脖子,就是说你有再多的电,你芯片过不了关,实际上是没有用的。这世界上有电的地方可能未必有芯片的能力,或者是说有建设大量算力的能力。
还有很重要一点,之所以我们现在对电力,尤其是在美国,大家对电力现在有一个非常清醒的认识,就是觉得这个未来可能会卡脖子。
我们现在需要的这个大规模的算力群,就是Model Cluster(模型集群),马斯克这次敢为天下先。他上来就是十万张卡,在一个集群里面,然后就是20万张卡在一个集群里面。人们很快就引入了一兆瓦这样一个概念。这个概念是什么意思?对应的是什么?50万张卡有一兆瓦对应。
现在人们把这个电力的单位变成了这个算力的单位,一兆瓦就相当于50万张卡。现在人们已经开始把这个 H 200的算力变成一个标准的算力单位,实际上芯片的能力,而且在单个集群里面的算力密度,这些实际上我认为是最终会卡的。
如果从Gemini 3.0的发布,在单点上的一些突破,下面很难在整体上去突破。比如说我在这个推理的效率上,我比别人高或者多一些单点的突破。未来就是很难带来整个系统上的这种突破,或者是整个系统上的比别人还要领先很多。这对于中国的AI其实是一个很大的挑战。
赵何娟:我刚就想说,中国现在就是单点突破能力很强。
张宏江:但是问题是这种单点突破,如果我们看这个DeepSeek 3.2的那个报告。他如此明确地说,我们其实现在就缺算力。你看他的最后结尾说,我之所以我这些参数,我这个性能的这些分数跟别人差不多,或者比别人还差,其实就是我算力还没用到。
另外就是他们告诉别人,我下面要加算力,我加算力以后,我的模型这条路还可以持续的。这对我们做模型的人来说应该是个好消息。这条路还没有到头,但算力本身是如此重要的一个资源的限制。所以从这个意义上来说,我觉得算力会比所有其他的因素加一块儿的瓶颈更大,电力本身也是最终把它转换成算力。
AI的基建没有泡沫
赵何娟:现在这个阶段肯定还是基础设施投入的阶段,不管是算力,还是建数据中心,还是铺电网,其实都是在为算力服务。
张宏江:我觉得还有一个很重要的一点,就是我们还是不要把这件事情看成一个简单的电力的投入,或者简单的基建。最近IBM 的 CEO在说"AI 数据中心有泡沫"这件事,我觉得他根本就不理解,就是说如果我们把这所有的投入,把这所有的系统的建设,就是数据中心的建设也好,还是这个电网的建设也好,还是说算力的建设也好,如果我们说它只是为了预训练,只是为了推理,其实我们把这件事情缩小了,它实际上是在建我们下一代数据的一个新的基础设施。
一个新的基础设施,比如说这个蒸汽机,原来是工业革命最早的基础设施。电力是我们这个工业革命的基础设施。那铁路是我们那时候的一个基础设施,那个光缆是我们互联网时代的基础设施。
今天我们在建的这些数据中心,实际上是下一个时代,下一个数字时代,也就是 AI时代的基础设施。这种建设,我们一定要把看成一个系统工程。
有人给出了一个图,也就是说当年在建设铁路时,铁路的投资占整个当时的GDP多少,那个占了3%点几;光纤是占了1%点几,今天算力的投资也才占了1%点几。
按这个类比,如果我们相信未来AI占 GDP 的一个很重要的部分,相信 AI是驱动未来GDP成长的核心支柱,今天所说的孤立地看这个算力的、芯片的、IDC的投入,说它有泡沫,我觉得都是稍微有点短视。
赵何娟:这个也其实也是我刚才想进一步问的问题,就是现在因为我们在做这些,都是在基建那个层面。但是基建你知道,它本身不可能快速地产生盈利能力和经营效益。那像华尔街就质疑这个事情,除了说它是泡沫。另外质疑的就是他的这个债务模式,没有办法,必须每家公司都要高举债,高杠杆地来投入来做这个基建。
但是高债务这个模式又被华尔街特别担心,华尔街可能被这个债务危机搞怕了,几次金融危机都债务危机,搞怕了就很担心这个模式。您怎么看呢?其实这一次美股的股价,尤其是 AI美股的大调整,都跟这种高债务的股票的大调整是有很大的关系。
张宏江:投资这方面,就是华尔街他们的这个分析。我其实不是很懂,这方面我不是专家。但是我想要说的是,其实可以借助谷歌CEO 的话,也可以借助微软CEO 的话说,我现在的投入,我现在等着用,我的客户在等着,不是说没有人用。当你生产的东西一上线就被抢光的时候,谈什么泡沫呀。你应该算的是说我这个能不能赶上用户的需求,用户用了这个 AI以后能不能产生未来的价值,我觉得这个可能是更应该算的那笔账,而不是说我们这一项需要投多少钱,最终就是看你的产出。
当然,在过去的两三年,包括在 AI 1.0的时候,人们都有这种怀疑,就是说你投入和产出是不是成比例,你在一个技术还如此早期,如此快速发展的时候,我觉得出现这个所谓的泡沫的情况,我觉得是很正常的。这是一个优化的过程,有不断地调仓。
赵何娟:有意思。我感觉这一两个月吧,就是11、12月份的整个美股,整个回调还是很厉害的。
张宏江:它只是在波动,因为它并没有一个波动往下降。你看这个波动,其实它的股票过去一直在涨,但今天有一个10%的这个波动往下下调。我觉得这个其实蛮正常的,咱们那个静下心来,然后看一看这些账,我觉得这个数字对于某些具体的公司的话,这种回调我觉得一定会发生,而且我觉得很正常,但整体对于 AI的基建来说,我不觉得这里面有什么泡沫。
未来两年内,AI会有大突破
赵何娟:我们刚才聊了很多关于现在的模型,然后基建相关问题。三年过去了,感觉不管是哪个层面的这种应用,这种超级爆款型的应用可能除了 Open AI的 ChatGPT这种模式之外,到现在为止没有第二个超级爆款出现,您觉得这个原因是什么?
张宏江:我其实不觉得没有第二个,第二个其实就是编程。
赵何娟:编程还算爆款应用?
张宏江:我觉得算是了,就是整体的编程来说,它是 TO B 的。TO C 的话确实只有ChatGPT;TOB 的话,我觉得就是编程 。还有一个就是所谓的爆款,我觉得这两点是已经确认的,就是说一个是编码,一个是内容的生成。人们在潜移默化中,AI其实已经变成一个你离不开,不能失去的工具了。
赵何娟:它不像是某一个应用,它是某一种模式,对吧?这个包括你也用了,就是我们那个新闻应用NextFin。
张宏江:对,一样的道理。我记得前一段时间有一条新闻出来说"有50%的新闻报道是由 AI来写的"。短讯其实都是 AI来写的,可能深度分析得还稍微那么一点。
这种所谓的叫作临界点,在不断地出现。一开始,金融媒体一半以上的文章是 AI写的,接下来会有越来越多的体育媒体,大约有一半的都已经是机器写的时候,你觉得这还不是一个爆款应用嘛。
赵何娟:这个就是说它可能不是某一个应用,它可能是某一类,就是每一家公司每一个人都可以。
张宏江: 你说得没有错,就是这一类。今天我们已经看到有公司在做这件事情。我相信2026年的话,你会看到大量的Agent的应用,具备非常强的自主运营能力的Agent会出现,可能不是公司的某一个,但是这一类的。
我们也看到,就是很多企业都希望能拥抱 AI,但在过去三年间,企业也在思考怎么落地AI。
随着推理模型能力的不断提高,随着Agent能力的提高,尤其是推理模型会推着 AI往前走,我相信在12个月到24个月内,可能AI这块会有非常大的突破。
赵何娟: 这个就是您说的 TO C 的爆款可能。
张宏江: 单一的一个爆款可能会慢。但是就你刚才说的在一类应用里面,它的 Tipping point 过了。就像今天刚才我说的,比如文档产生这些事,已经有50%是 AI产生的。
我觉得这些都是非常有意思的,就像前一段有一个数据显示,这个推理模型的 token 的用量已经超过50%了。所以从这个意义上来说,那就是我们离 Agent其实很近了。我们整个对于模型的使用,已经从寻找一个答案,到让他完成一个任务。
赵何娟:我觉得这算是一个分水岭。
张宏江:推理模型其实是去年的9月份才出来,也就是说,在推理模型出来12个月之后,推理模型所用的 token 量就超过了预训练模型。从简单的这个回答问题到执行任务,这个转折点已经开始出现了。
赵何娟:我们应用端,如果说 Agent类的这种应用在2026年要开始爆发的话,哪些垂类的赛道,您觉得更可能快速发展?
张宏江:我刚才其实已经提到了,就是我觉得编程是第一个。但是,你说最终是不是Cursor会胜出是另外一回事。我觉得Cursor是很有意义的一个事件,就是在这个大模型的应用上,是实现快速普及的这么一个应用。
赵何娟:对。就是好多人都觉得,你要跟通用大模型去竞争要做的事情,所有创业公司都没有机会,但是Cursor证明创业公司是有机会的,微软也在做编程,Google 也在做编程。
张宏江:但是长期来说,是不是 Cursor ,我没有那么有信心,因为如果你相信模型本身的能力扩张,会把很多Agent能力吸进去的话,我认为还是有最终的风险。最终这种非常重要的应用,很可能会在模型公司实现。
赵何娟:它有它的命运,有可能就是被大模型公司给收购了,比如说被 Google 收购了之类的。
张宏江:或者是被微软、被苹果收购。我会觉得一个是编程,其实就是整个开发者;另一个我觉得是客服,这个垂类很快会被颠覆。
赵何娟:从刚开始就觉得会颠覆客服。
张宏江:但是没有大模型之前,其实是不行的。那没有Agent之前也不行,因为它每个任务还是不一样,你要理解用户的任务这件事,其实还时要用 Agent来做。我刚才也提到,就是在媒体上的文章,已经有50%是由 AI生成了,所以这一点我觉得瓶颈已经到了。
赵何娟:AI编程,然后内容媒体,都是首当其冲的感觉,都是码字或者码代码的码农们。
张宏江:下一步我觉得就是这个企业的 Workflow(工作流),更多地将由Agent来执行。
中国机器人赛道泡沫最多
赵何娟:您怎么看端侧 AI?中国好多创业机会现在都全部集中到跟硬件相关的这个赛道上来了。
张宏江: AI手机依然还是一个交互,模型本身还一定是在云端。我觉得在很长一段时间内,这个模型还会在云端,其实所在开发的硬件,包括国内很多硬件的公司,我觉得他们更多的还是在做交互。
而AI眼镜它本身也是一个交互,因为它用语音来跟你交互。然后可以拍照,可以拍视频,再就是它可以有显示,所以它还是交互,真正的这个智能还是在云端。
所以端侧的智能叫端侧,就是很多做 AI硬件,我们会看到越来越多的尝试,最终会是什么样的形态。我觉得今天还看不出来,但是大家都在尝试,但到今天所有的尝试,它的智能都在云端。
赵何娟:就是说现在的 AI和端侧结合,或者说和硬件的终端结合的部分,它核心的还只是智能交互这个层面,而不是智能驱动,就是它还达不到说我是生成式模型驱动这个。就自动驾驶,您觉得呢?
张宏江:自动驾驶是端的,端侧是在车上的。因为就车本身它体量足够大,所以它可以在足够大的GPU、 足够大的算力,然后它有电力使它能够这么做。再一个就是说,尤其是端到端的自动驾驶,它本身对于算力的需求其实车上的已经足够了,它本身所做的决策没有那么复杂,就是加速减速、往左往右。
赵何娟:那正好也回到您最开始咱们对话的时候您就提到的,但没有展开的,机器人的这个赛道上,机器人这块您怎么看?现在中美机器人都非常热,但是看起来好像中国做机器人的优势好像更强一些,但是如果讲世界模型的话,肯定还是美国的世界模型。
张宏江:如果我们谈到 AI的泡沫的话,我恰恰觉得这个中国的机器人的这个赛道泡沫是最多的。
赵何娟: 为什么中国机器人泡沫最大?
张宏江: 就是我们看中国有多少家机器人公司,跟美国比,美国基本上两只手就数过来了。但是中国的机器人公司可能上百家。然后每一家都声称自己软硬都很厉害,但是在世界模型没有突破之前,其实具身智能很难做到通用。所以我认为这条路会很长,就是说不是三年到五年的事,而是五年到十年的事。
在通用的这个机器人上面,我会觉得就是美国这边会比中国这边要冷静得多。
当然中国制造是强项,所以在本体上,显然我觉得中国是走在前面的,而且可能还有很大的一个领先。我听说在中国的这个机器人本体的一次升级,大概就一个礼拜就能做出来。美国至少要两个月,所以这是中国供应链和中国制造的优势所在。
但我想说的是,今天大部分的本体实际上还是处于遥控状态,也就是说自主地驱动,然后实现通用的任务的话,其实是非常难的。
今天我们的具身智能的模型还没有这个通用的泛化能力。而这种泛化能力,无论是VLA这样的模型,还是小脑模型,都没有达到我们所需要的泛化能力。
赵何娟:您说美国要冷静得多,这个我也有感受,上个月美国人形机器人初创公司K-Scale Labs宣布解散了,这个公司其实去年才刚刚成立,然后还连续拿了三轮融资。本来是一个当红炸子鸡的公司,然后今年就很突然,其CEO就直接宣布解散了。我觉得好蹊跷,为什么美国不看好呢?
张宏江:还是觉得很差。我觉得就是硅谷这边,这个快速的发展,然后快速的这个解散,或者就是快速的探索,然后快速失败,其实是它这边的一个特色。
我把这个问题再分解一下,有人说特斯拉号称明年会有量产,但他的机器人一定是工业机器人,不是通用的机器人。
赵何娟:有专属任务的机器人。
张宏江:它不是说专属的一个任务,而是专属的一类任务。这本身是一个很大的进步。我觉得我们可以看到,第一,这是一个专属的一类任务的机器人;第二,这是一个在工业场景上的机器人。工业产品比较容易控制,所以它会持续地去迭代。
特斯拉有它自己的工厂,因为它本身就有很大的生产线,它本身就有很多应用的场景,所以我觉得它号称能够出百万台,我觉得有可能。它甚至不是一个工业的通用机器人,是工业的一类任务的机器人,我觉得这还是相当有限制的。
赵何娟:它可以说是以某一类任务的通用。
张宏江:对,通用的这个在工业产品上,实际上就已经很有意义了。
赵何娟:我看那个智源也推出了一个机器人的智能仿真系统,然后包括机器人的这个控制系统,这个是不是意味着国内的这些大模型公司也在尝试做。
张宏江:因为智源本身是研究机构,它推的这些东西,我觉得我们应该把它看作是一个研究上的探索。而且它的泛化能力,它距离落地的时间,我觉得还有很长的路要走。
机器人很重要一点就是数据,它用仿真的方式来做训练,但我们都知道仿真最后,它会有一些局限。就仅仅靠仿真,我觉得未必能走通,但是仿真是一个非常有效的路径,但是肯定不是唯一的路径。这个硬件协同优化模型,就是模型和硬件协同,如果你把这两个事情同时来强调的话,那其实它不是跨本体的。
赵何娟:怎么理解它不是跨本体这件事?
张宏江:也就是说,它这个模型在这一类机器人上能用,换到其他的机器上未必就能用,比如,我的 Windows 在戴尔这个 PC 上能用,在联想的 PC 上能用,在惠普的PC 上能用,这叫通用。
赵何娟:您觉得像机器人公司它要成功的话,它的决定因素目前看它更像汽车产业,就是说可能决定汽车产业成功要素,包括像制造能力、供应链能力、规模优势等,还是更像手机产业,就是它的决定因素,包括像它的生态、开发者生态、应用范围的广泛性、平台价值等,可能更像哪一类?
张宏江:我觉得你刚才提到汽车,我是觉得今天的机器人的这个状态。就是它还没有做出一个通用的发动机,还没有到一个通用的发动机的时代,也就是等于发动机还没有过关。
因为通用的聚生模型到今天,依然还是个梦想,还是个目标。从硬件上还是有很多需要突破的,比如灵巧手还需要突破的。我反而觉得这就是这块儿可能在今后几年有很大的进展,但是我认为这个通用的模型,在我们这个世界模型没有太大的突破之前,我们很难做出通用。
赵何娟:那是不是意味着比如未来两年机器人它要落地的话,它的场景更多还是在工业场景上面,可能在工业场景上进行分类。
张宏江:不,也许在销售,在工业,还可能在其他地方,比如说24小时无人店。
赵何娟:所以零售场景可能也是一个很快能布局的场景。
张宏江:我想第一步我们要走到一类。就像我刚才说的,比如特斯拉的机器人,它是在工业里面的一类。我觉得在消费这块也同样是一类。
超级智能正在消灭工作
赵何娟:挺好,谢谢宏江老师,让我们对机器人这个产业,尤其是中美对比之下有了一个更清晰,也更清醒的一个认识。时间关系,最后想探讨一个问题,就是关于这个伦理和安全性的问题,这个当然很多科学家也在提,但是我觉得就我们现在真正有很多像Geoffrey Hinton可能讲的还有很多是未来远期的事情。
但我们放到当下来看,短期我们已经可以看到,AI带来的一些对人类的冲击已经开始出现了。比如说,前几天我还看到一个新闻,说那个 ChatGPT 诱导犯罪。类似这种,它可能会让一些人沉迷于 AI的聊天,把 AI视作伴侣之后带来的一些风险,就像年轻人沉迷游戏一样。
然后还有就是我们也看到,现在这种对就业的冲击也非常直观了,很多大厂直接都是上万人的裁员。所以这些都是我们短期内就能看到的,可能对社会发生的一些冲击,我们怎么看这些现在潜在的这种伦理的问题,还有就是社会风险的影响。
张宏江:非常好的问题。我本人过去两年参与了很多关于 AI安全的讨论,也发表了一些宣言,也推动了一些对话。我本人的这个研究兴趣更在于AI模型本身和可能出现的风险。
你刚才谈到的倒确实属于伦理,属于这个使用大模型、使用 AI带来的一些社会影响。属于沉迷这样的事情,前几天我们看到澳洲推出了一个16岁以下的孩子,不能够使用社交网络一样,这实际上是一个你可以通过法律,通过社会,通过教育,来避免的事情。
之前我们知道推荐系统也有,这个社交也有,当然有些技术手段可以用,但更多的是通过一些法规这个制定,通过教育来规避,但更大的一个问题是你刚才说的就是对就业的影响。
如果我们看 AI的能力的话,它的能力的提高是如此之快。之前我们人类所创造的机器,它其实是替代了我们的身体的某一部位的能力,比如这个汽车比你走得快,马车比你拉的东西多,吊车比你举的东西高重,这都是一种能力。智能这是人类至今依然认为是高于所有其他动物,是人类不可放弃的、不可逾越的这个能力,今天我们看到这种能力被AI大模型所冲击了。
而且未来的话,如果我们纯粹从 IQ 角度来看,就是机器超过人类了。关键是它还在快速地进步,而人类的 IQ 这么多年来平均值在110。当你创造了一个物种,它的学习能力比你强的时候,它超过你是完全可以预测的。
我之前做过很多次报告,我就用一张图,就是说一个是人类的学习能力,这条线基本上是一条直线,是一条非常缓慢增长的直线;第二个就是机器本身的进步。以前我们看不到机器对人类带来的威胁,是在于它这两条曲线没有接近,机器的那个学习曲线也还在人类的学习曲线的下面。一旦这两条曲线接近以后,然后交叉以后,机器的这个学习的能力会持续往上走,人类的话是跟不上的,这就是为什么它这次对职业的冲击会很大。
以前任何一个新的技术的出现和使用,都会消灭一些工作,减少一些工作,还会创造更多的工作,使得人们经过重新培训,能够在新的领域就业。但今天超级智能的出现,它的使用会减少很多工作,比如办公室的这个工作人员,新闻的写作人员,投行里面的初级的分析师这一类。
它也会创造很多工作机会,但是遗憾的是创造的这些工作机会,最后还是还给了 AI,比如生成图片能力的增强,使得人们对于图片的需求越来越多。但是这种需求不是说会雇很多人来用他这个工具来满足这种需求,而是这个大模型本身就能帮你产生这么多图片,所以它消灭的工作,不是说有另外的人类在其他的方面来取代。所以从这个角度来说,就是我们会面临的一个所谓的工作的机会会整体往下降。
第一次我们碰到一个技术革命,最终会消灭工作,减少成本,这是问题。不是说人类不能培训,就比如一旦我们这个工业机器人变得泛化,它会把整个工厂里面这些流水线上的工作全部取代掉。
赵何娟:所以它是消灭工作,而不是说我是消灭某一个岗位,这个是第一次遇到。
张宏江:第一次遇到的,它消灭的是工作,所以面临的问题实际上是我们之前没有碰到过的。这样的问题怎么来解决?比如,三年前美国的这个卡车工会,不允许做卡车的自动驾驶。因为美国大概有一百多万的卡车司机,围绕着给卡车司机做服务的又有两百万人。
赵何娟:美国的卡车司机收入很高。
张宏江:卡车实际上是最容易被自动驾驶所取代的。因为它大部分时间是在高速公路上走。
所以就是这样的社会问题,你可以一开始用工会去游说不让做这件事,但是你是挡不住技术的进步,你只能推迟。所以这个确实是我们社会第一次面临的问题。就是说比如卡车司机下岗,把他进行重新培训,但是没有新的工种出现。
赵何娟:您觉得这个问题有解吗?这个对经济冲击也很大,对就业影响也很大。
张宏江:我不开车了,我去做装卸,对不起装卸有机器人做了。所以从这一点来说的话,这是我们未来社会面临一个非常大的挑战,这个挑战之前是没有过的,比如工业革命使得农民脱离土地,然后大量地进入工厂。信息革命使得大量的蓝领变成白领。
我想象不出来 AI会使白领变成什么,我也想象不出来AI使这个大量的蓝领变成什么,但不可能让他变成白领。所以这是我们所面临的一个现实的问题。
在五六年前,第一波深度学习起来的时候,像包括萨姆·奥尔特曼(Sam Altman),他们就开始研究 UBI(Universal Basic Income)。他们开始研究 AI时代的新税务系统。因为美国或者是这些发达国家的政府开支,主要的收入就来自税收,工资税是他们很大的一部分,但如果当我们没有工资的时候,税收从哪来?从机器人上来,还是从公司的利润里面来,还是怎么样?所以这是一个新的税收体系。
特朗普最近有一个动作,人们可能没有意识到它的长期意义,就是现在他开始给每个大概十岁以下的小孩开了一个投资账户,然后每个账户里面打600块钱还是多少钱进去,但这个很重要的一点是怎么回事,就是以前你给补贴也好,给什么也好,你其实仅仅是给了他一次性的这个分红,相当于今天如果他这个账户是投资股市的话,也就是未来你会享受成长的红利,也就是随着技术的成长,随着公司价值的成长,你能够拿到它的红利是非常直接的。
也许未来的UBI 是不是这种方式呢?因为你是成比例的,只要你公司涨一倍,我也涨一倍。这跟以前就不一样了。
这是一个未来非常值得探讨的一个问题。就是说我们既不能够用这个打土豪分田地的方法来均贫富,又不能够遏制住技术的发展,而技术的发展很容易导致财富的聚集。
赵何娟:贫富差距拉大。
张宏江:在大模型时代,就是所谓的 Agentic economy 这个时代,我们会出现一些超级个体。我们是会出现一人的独角兽,也就是说你个人的能力会进一步的拉开,人的收入也会进一步拉开。当我们面临着这样的社会的时候,整个社会体系的这种设计,其实是我们面临的一个新的挑战。
赵何娟:挑战很大。
张宏江:将来有很多人开始研究。我上个礼拜,跟五个经济学家一起对话,其实大家谈的更多的是AI带来的未来经济上的挑战。
我正好在上周看了一家公司,他是做这个非全职工人的招聘,先不说这家公司怎么样,但这种服务或者这种所谓的有一个词儿叫作自由职业者。
这种状态可能是未来我们大多数人的状态,就你某一个技能可能某个时候被某一家公司需要。而这个技能,可能今天机器还不能替代,或者是我要训练一个机器要做这件事的时候,我要从你这儿把你的能力给转移过去。
就是说,我们未来会有大量的这种非全职的职业招聘。怎么挖掘到这些人,怎么把这些人和需求结合到一起,其实这是一个很好的商业模式,这是一个很大的需求。
前几天,我和三位朋友一起聊的时候,我们甚至聊到未来这种超级智能出现以后,人类的价值在哪里?或者说我们让超级智能给人类的生存留下的空间在哪?这东西可以上升到社会学,可以上升到心理学,可以上升到宗教这个层面,可以上升到各个方面探讨。但更多的我会想把它交给政治家,交给社会学家、经济学家,我自己本人的兴趣更多的在"我们怎么保证模型本身不具有欺骗的能力"。
今天已经有迹象表明就是模型开始作弊或者欺骗了。为什么小孩会撒谎,因为这个奖励体系让他撒谎,能够避免一些麻烦,如果我们给大模型里面也有这种奖励体系的话,大模型一定会撒谎。小孩撒谎,你可以控制住的。当大模型撒谎的时候,你很可能控制不住它。所以怎么能够让它不学到这种能力,或者我们在设计奖励函数的时候,不能够让它有这种奖励。这个是我觉得从技术层面,坦白说是我对于AI安全的兴趣所在,我把它认为是一个技术问题。
赵何娟:特别好。我觉得这个是后续 AI持续发展,我们既要去看它还存在的问题,要进一步地去发展和解决,另外就是我们也可能面临的社会风险,然后这种社会风险,我们怎么更早地做好准备去应对。
如果说,我们站在 ChatGPT 发布三周年之际,您觉得当下的年轻创业者更应该了解什么,或者更应该怎么做。
张宏江:对创业者来说,我觉得年轻的创业者,他们本身的这种能力,其实比我们这一代或者我们上一代的这些创业者或者是企业家,他们已经强了非常多。他们对于新技术的敏感,对技术的潜在应用,这种敏感其实非常强。那我想说的一点就是"这个AI的发展可能会比大家想象得快"。
如果能够把握住一些点,比如我觉得2026年可能是推理模型涌现的时候,可能就是真正的我们所谓的 Agent的能力会出现一种突破。那这个时候,我们能做什么东西,那是我们可以好好来思考的。
当然,中国年轻的创业者,他们从来不缺这个创造力,从来不缺这个动力。我相信他们在今后的一年里面就会做出非常好的东西。
反而是对于那些还在上学的人,经常有很多家长焦虑的是,我的孩子未来学什么,或者年轻人说我将来学什么专业。我会觉得这种焦虑倒真是没有一个很好的解答,一方面我们有人说我们可以用 AI让我们的学习变得更有效,但如果你学的东西未来都没有用的话,你有效,并不能够保证什么。
所以从这点上,我倒是觉得可能我们年轻的学生最重要的其实是怎么具备和保持自己的好奇心,怎么锻炼和培养自己的创造力?未来的社会,一定是需要更多的好奇心,更多的创造力。
赵何娟:谢谢宏江老师,给了我们年轻人一些寄语。我们也相信办法总比问题多。我们知道问题在哪了,可能解决起来就相对比较容易。最难的可能是我们都还没有意识到问题在哪。所以我们相信社会会持续发展进步,通过大家的持续努力,也会让我们的社会变得更好。


登录后才可以发布评论哦
打开小程序可以发布评论哦