人多,好办事。agent 多,照样好办事!
在最新的 Andrew ’ s Letters 中,吴恩达老师就指出:
并行智能体正在成为提升 AI 能力的新方向。
信中,他描绘了这样的一些场景:
多个 agent 并行抓取分析网页,更快速地生成深度研究报告。
多个 agent 协同处理代码库的不同部分,加快编程任务完成速度。
多个 agent 在后台并行工作,同时由一个监督 agent 向用户提供反馈,实现并行异步控制。
在这些场景中,多个 agent 协作,就像一支高效的 agent team 同时处理不同任务,速度快、效率高。
这为我们理解 AI 能力的提升提供了新视角——
不仅仅依靠更多的数据和算力,更重要的是让多个智能体协同并行工作。
以往,当我们谈论 AI 能力的提升时,更多依赖的是所谓的 " 力大砖飞 " 的 scaling law,也就是希望通过更多的数据和算力来获得性能的提升。
据吴恩达所说,这一点在他之前在百度和 OpenAI 的工作中,已得到了充分验证。
但问题是,这些方法往往需要长时间才能输出结果。
相比之下,并行运行的 agent 提供了另一种方式:在提升性能的同时,让用户无需长时间等待结果。
此外,大语言模型 token 成本的不断下降,也让多个 agent 并行处理的方法变得可行。
但就像网友指出的:如何协调多个 agent 呢?
咱光给方向,不给答案也不行啊。
对于这一疑问,吴恩达在信中也是有所提及:因为哪怕对于人类来说,将一个复杂任务(比如开发复杂的软件应用)拆分成小任务并交由下面的多个工程师并行完成,都就极具挑战,而一旦扩展到更多的并行单元,那么难度将会更大。
同样的,将任务分解给多个智能体并行执行也并不容易。
不过,凡事要用发展的眼光看问题:
吴恩达以两篇最近的论文为例,说明了并行智能体研究的发展:
一篇是来自 Ryan Ehrlich 等人的论文《Code Monkeys:Scaling Test-Time Compute for Software Engineering》。
简单来说,这篇论文让大语言模型在推理时并行生成多个轨迹,来生成多样化的候选解决方案,从而提高编程问题解决的效率。
其次是 Together Mixture Of Agents(MoA)架构,它通过同时利用多个大语言模型来提升性能。
值得一提的是,该架构还能进一步调整分层架构(每层包含的 agent 数和层数),来进一步提升性能。
在信的最后,吴恩达总结道:
在如何最优地利用并行 agent 方面,仍然有大量研究与工程工作需要探索。我相信,能够高效并行工作的 agent 数量,就像能够高效并行工作的人的数量一样,最终会非常庞大。
最后的最后,我们不妨说句题外话。
2009 年,吴恩达在他的经典论文《Large-Scale Deep Unsupervised Learning Using Graphics Processors》中,首次系统性地展示了 GPU 在深度学习中的大规模应用。
这篇论文不仅证明了 GPU 计算能显著提升卷积神经网络的训练效率,更预告着深度学习时代的到来。
而这一切的核心,归根结底就俩字:
并行。
参考链接
[ 1 ] https://x.com/AndrewYNg/status/1961118026398617648
[ 2 ] https://www.deeplearning.ai/the-batch/agents-running-in-parallel-get-there-faster/
[ 3 ] https://arxiv.org/pdf/2501.14723
[ 4 ] https://docs.together.ai/docs/mixture-of-agents?utm_campaign=The%20Batch&utm_source=hs_email&utm_medium=email&_hsenc=p2ANqtz--bx7Qwyz4z_x_fNl93PMa-tjsrHFwAsEMSCHyOV1wXdBXA9LRFQJ6RKmk8P7MHd0o7_REn
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
专属 AI 产品从业者的实名社群,只聊 AI 产品最落地的真问题 扫码添加小助手,发送「姓名 + 公司 + 职位」申请入群~
进群后,你将直接获得:
最新最专业的 AI 产品信息及分析
不定期发放的热门产品内测码
内部专属内容与专业讨论
点亮星标
科技前沿进展每日见
登录后才可以发布评论哦
打开小程序可以发布评论哦