2025 年 5 月 7 日,理想汽车推出 " 理想 AI Talk 第二季——理想 VLA 司机大模型,从动物进化到人类 ",理想汽车董事长兼 CEO 李想分享了对于人工智能的最新思考,VLA 司机大模型的作用、训练方法和挑战,以及对于创业和个人成长的见解。
李想将 AI 工具分为三个层级,分别是信息工具、辅助工具和生产工具。
目前,大多数人将 AI 作为信息工具使用,但信息工具常伴随大量无效信息、无效结果和无效结论,仅具参考价值。
成为辅助工具后,AI 可以提升效率,例如现在的辅助驾驶,但仍需人类参与。
未来,AI 发展为生产工具后,将能独立完成专业任务,显著提升效率与质量。
李想表示:" 判断 Agent(智能体)是否真正智能,关键在于它是否成为生产工具。只有当人工智能变成生产工具,才是其真正爆发的时刻。就像人类会雇佣司机,人工智能技术最终也会承担类似职责,成为真正的生产工具。"
代入到自动驾驶领域来看,李想表示,目前的 L2、L2+ 组合驾驶辅助仍属于辅助工具阶段。
而 VLA(Vision-Language-Action Model,视觉语言行动模型)能够让 AI 真正成为司机,成为交通领域的专业生产工具。对理想汽车而言, 未来的 VLA 就是一个像人类司机一样工作的司机大模型 "。
VLA 的实现不是一个突变的过程,是进化的过程,经历了三个阶段,对应理想汽车辅助驾驶的昨天、今天和明天。
第一阶段,理想汽车自 2021 年起自研依赖规则算法和高精地图的辅助驾驶,类似 " 昆虫动物智能 "。
第二阶段,理想汽车自 2023 年起研究,并于 2024 年正式推送的端到端 +VLM(Vision Language Model,视觉语言模型)辅助驾驶,接近 " 哺乳动物智能 "。
端到端模型在处理复杂问题时存在局限,虽可借助 VLM 视觉语言模型辅助,但 VLM 使用开源模型,使其在交通领域的能力有限。同时端到端模型也难以与人类沟通。
为了解决这些问题并提升用户的智能体验,理想汽车自 2024 年起开展 VLA 研究,并在多项顶级学术会议上发表论文,夯实了理论基础。
第三阶段,在端到端的基础上,VLA 将开启 " 人类智能 " 的阶段,它能通过 3D 和 2D 视觉的组合,完整地看到物理世界,而不像 VLM 仅能解析 2D 图像。
同时,VLA 拥有完整的脑系统,具备语言、CoT(Chain of Thought,思维链)推理能力,既能看,也能理解并真正执行行动,符合人类的运作方式。
此外,李想还进一步分享了 VLA 的训练细节和运作原理。
VLA 训练分为预训练、后训练和强化训练三个环节,类似于人类学习驾驶技能的过程。
预训练相当于人类学习物理世界和交通领域的常识,通过大量高清 2D 和 3D Vision(视觉)数据、交通相关的 Language(语言)语料,以及与物理世界相关的 VL(Vision-Language,视觉和语言)联合数据,训练出云端的 VL 基座模型,并通过蒸馏转化为在车端高效运行的端侧模型。
后训练相当于人类去驾校学习开车的过程。随着 Action(动作)数据的加入——即对周围环境和自车驾驶行为的编码,VL 基座变为 VLA 司机大模型。
强化训练类似于人类在社会中实际开车练习,目标是让 VLA 司机大模型更加安全、舒适,对齐人类价值观,甚至超越人类驾驶水平。
VLA 司机大模型以 " 司机 Agent(智能体)" 的产品形态呈现,用户可通过自然语言与司机 Agent 沟通,跟人类司机怎么说,就跟司机 Agent 怎么说。
简单通用的短指令由端侧的 VLA 直接处理,复杂指令则先由云端的 VL 基座模型解析,再交由 VLA 处理。
李想强调:理想人工智能走的是无人区,做 VLA 这件事,Deepseek、OpenAI、谷歌、Waymo 都没有走过这条路,理想以前走的是汽车的无人区,以后走的是人工智能的无人区。
登录后才可以发布评论哦
打开小程序可以发布评论哦