快科技 3 月 19 日消息,最近 " 那我问你 " 梗爆火,不少网友利用该模版制作一些视频,吸引了非常多的关注。
近日,理想汽车展示了最新的自动驾驶技术路线,有理想粉丝利用 AI 制作了李想版的 " 那我问你 ",相当有趣。
视频里,李想化身 " 小明剑魔 ":
谁再说理想没有技术,那我问你,哪个车企,谁能识别出照片上的地址来接我,你吗?我没有技术了吗?回答我!有没有技术,嗯?你回答我,你们这些说我没有技术的,回答我!
look in my eyes,tell me,why,why baby why?
我全车自研率达到 95%,你呢?我辅助驾驶能语音导航你能吗?我都在疯狂对标国外,你们呢?说话!都在模仿增程式。
那我再问你,星环灯是不是我第一个?你们一个接着一个抄,回答我!说我冰箱彩电大沙发,有本事别!,你就不会自己创新?做增程不抄我,能活吗?
据了解,在昨日开幕的 NVIDIA GTC 2025 上,理想汽车发布了下一代自动驾驶架构 MindVLA,它是一个视觉 - 语言 - 行为大模型,理想汽车将其称为 " 机器人大模型 "。
它将空间智能、语言智能和行为智能统一在一个模型里,旨在把汽车从单纯的运输工具转变为 " 贴心的专职司机 ",让自动驾驶拥有感知、思考和适应环境的能力,是理想汽车通往 L4 自动驾驶路上最重要的一步。
听得懂:用户可通过语音指令改变车辆路线和行为,如在陌生园区寻找超市时,只需对车辆说 " 带我去找超市 ",车辆在无导航信息情况下可自主漫游找到目的地;行驶中用户说 " 开太快了 "" 应该走左边这条路 " 等,MindVLA 能理解并执行。
看得见:具备强大的通识能力,不仅能认识星巴克、肯德基等不同商店招牌,用户在陌生地点找不到车辆时,拍一张附近环境照片发送给车辆,车辆能搜寻照片中的位置并自动找到用户。
找得到:车辆可自主在地库、园区和公共道路上漫游,如用户在商场地库找不到车位时,跟车辆说 " 去找个车位停好 ",车辆会自主寻找车位,遇到死胡同也会自如倒车重新寻找,整个过程不依赖地图或导航信息,依靠 MindVLA 的空间理解和逻辑推理能力。
目前,MindVLA 已完成工程化适配,计划于 2026 年搭载于量产车型,未来,该架构还有望拓展至室内环境等非驾驶场景,探索物理与数字世界结合的通用人工智能路径。
登录后才可以发布评论哦
打开小程序可以发布评论哦