财联社 12 月 1 日讯(编辑 夏军雄)多位人工智能(AI)业内人士预测,AI 的未来将从 ChatGPT 这类巨大而昂贵的模型,转向更小型、专用的 AI 代理,这些系统专门处理特定任务,开发成本更低,甚至能在笔记本电脑上运行,从而无需大型数据中心。
根据汇丰近期一项分析,AI 研究公司 OpenAI 目前声称年收入已达 200 亿美元,并计划投入 1.4 万亿美元用于建设新数据中心。然而,即便 OpenAI 收入在 2030 年突破 2000 亿美元,该公司仍需额外筹措 2070 亿美元以维持运营。
在近日于里斯本举行的网络峰会上,十多位 AI 业内人士却描述了另一种 AI 未来。
他们认为,未来将以更小型的 AI 系统为主,这些系统通常围绕执行特定任务的 AI " 代理 " 运作,因此不需要 OpenAI、谷歌 Gemini 或 Anthropic Claude 那样庞大的大型语言模型。
" 他们的估值建立在‘越大越好’的假设上,但这并不一定正确,"Cognizant 首席 AI 官 Babak Hodjat 表示。
" 我们确实使用大型语言模型,但不需要最大的那一种。大模型只要在特定领域能够很好地遵循指令、会使用工具、并能与其他代理沟通,就足够了,"Hodjat 说。" 只要达到某个门槛,规模就够用了。"
例如,中国 AI 公司 DeepSeek 今年 1 月推出的模型只花了几百万美元开发,因而引发科技股抛售潮。
Hodjat 表示,DeepSeek 模型每次请求使用的参数量远小于 ChatGPT,但功能却具有可比性。一旦模型缩小到一定规模,就不需要数据中心,它们可以直接在 MacBook 上运行。
" 这就是差异所在,也是发展趋势,"Hodjat 说。
多家公司正围绕 AI 代理或 AI 应用布局,它们认为用户会希望用专门的 App 解决特定问题。
Superhuman(前身为 Grammarly)首席执行官 Shishir Mehrotra 表示,他们运营一个 "AI 代理应用商店 ",这些代理可以嵌入浏览器,或运行于 Grammarly 已获授权的数千款应用中。
Mozilla 对 Firefox 也采用类似策略,该公司首席执行官 Laura Chambers 说:" 我们有几项 AI 功能,比如‘摇一摇总结内容’、移动端智能标签分组、链接预览和翻译。这些全部在本地运行,数据不会离开你的设备,也不会共享给模型或大语言模型。我们还有一个侧边栏,你可以选择自己想用的模型。"
芯片公司 ARM 的战略负责人兼首席营销官 Ami Badani 透露,该公司采取模型无关(model-agnostic)策略。
Badani 说:" 我们会在大模型之上为特定用途创建定制扩展模块。因为不同公司对模型的需求往往差异非常大。"
这种方式——由多个高度聚焦、像独立业务一样运作的 AI 代理——明显不同于大型通用 AI 平台。
这种模式正吸引着巨额投资。IBM 风险投资公司投资了许多看似不起眼、但填补企业特定需求的 AI 初创公司。
其中一家名为 Not Diamond 的公司注意到,85% 使用 AI 的企业都会使用多个 AI 模型。不同模型擅长不同任务,因此为每项任务选择最佳模型变得至关重要。


登录后才可以发布评论哦
打开小程序可以发布评论哦