星河商业观察 13小时前
当摄像头被“晃了眼睛”,谁该为失控的智驾买单?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

2026 年 1 月 10 日下午 4 点,青岛的周女士驾驶着她的理想 L6 Pro 行驶在香港中路上。

刚接了一个蓝牙电话后,她打开了车辆的 NOA 导航辅助驾驶系统。车辆正对夕阳行驶,在红绿灯路口起步直行 7 秒后,突然向后偏转,与右侧车道的黑色轿车发生碰撞。

事故后的道路认定书显示,周女士因违规变道负全责。

理想工作人员的回应:" 午后低角度阳光直射,传感器有局限性。"

翻译一下:太阳太大了,晃着智驾的 " 眼睛 " 了。

智驾失控,阳光背锅?

理想汽车技术人员分析:冬季午后低角度阳光直射,辅助驾驶传感器在极端光线条件下识别存在局限性。这套说辞被严谨地写进了《用户手册》。

同样的情况也在特斯拉身上发生过,不过那是在美国。2025 年 2 月,内华达州里诺市,一辆特斯拉 Cybertruck 在 FSD(全自动驾驶)模式下,同样在光线充足的白天,系统未能识别车道即将终止,也未尝试变道或减速,径直撞上路灯。车主在社交平台发布的现场照片显示,右前轮悬空贴在灯柱上,车身严重变形。

2024 年 10 月,美国国家公路交通安全管理局(NHTSA)对 240 万辆特斯拉展开调查,原因是车辆在 " 能见度降低的区域 "FSD 系统失效导致碰撞。

光线问题、突然变道、传感器失效这三个关键词,勾勒出智驾系统在面对自然光环境时的集体脆弱。

全行业的黑箱默契

魔幻的还有数据的缺失。

事故发生后 48 小时内,周女士联系理想官方希望提取后台智驾数据,找第三方鉴定。1 月 14 日售后说 " 最晚明天 ";1 月 16 日改口:" 辅助驾驶数据已自然灭失 "。

理想给出的解释是:智驾数据存储在本地,需要在出现问题后 " 两三分钟内主动上传 ",否则会被覆盖。

这种 " 数据易逝性 " 似乎成了行业 " 默契 "。 2025 年 3 月 29 日,小米 SU7 在安徽高速施工路段以 116km/h 时速碰撞隔离带,致三名女生身亡。事故发生后,舆论聚焦的关键点之一正是 " 数据黑箱 "。

一位业内人士透露,目前主流车企的智驾数据策略普遍是 " 本地化存储 + 触发式上传 "," 如果系统不认为这是『事故』,或者上传通道拥堵,数据就可能被覆盖。"

国标 GB 44495-2024《汽车整车信息安全技术要求》要求自动驾驶数据记录系统至少保存碰撞及碰撞风险事件数据,但该标准对 " 智驾数据 " 的定义边界模糊。据此,理想的回应是:" 辅助驾驶数据目前没有现行的国标要求。"

翻译一下:NOA 不是自动驾驶,不适用最严格的数据保存标准。

行业通病还是技术路线之殇?

青岛周女士遇到的情况并非孤例。

在质量投诉等网络平台上,类似 " 智驾状态突然变道 / 转向导致事故 " 的投诉并非个案,且呈现出诡异的跨品牌共性:

2025 年 3 月,一位理想 L6 Max 车主投诉:市区 NOA 状态下,误判道路情况,猛地向左打了两圈方向,导致车车辆失控撞上绿化带。

2022 年 8 月,小鹏 P7 在光线良好的高速路况下,以 80km/h 时速径直撞向静止车辆,毫米波雷达、前向摄像头 " 三重冗余先后失效 ",车主不幸身亡。讽刺的是,就在事故前两天,小鹏刚刚因为 " 车主眼睛小被 DMS 误判注意力不集中 " 而上了热搜,向公众宣传其监控系统的 " 严谨 "。

2025 年 7 月,新疆,理想 AD Max 在面对突然窜出的羊群时," 丝毫没有预警,也没有减速 ",径直撞去。

2025 年初,美国德州,一辆特斯拉 Model 3 在 Autopilot 模式下意外偏离车道,横穿高速公路多条车道后撞上摩托车手,导致骑手及其乘客被送往医院。

这些案例勾勒出一条清晰的技术边界:当前智驾在降级逻辑、静态障碍物识别、突发转向控制上存在系统性短板。 特别是 "NOA 降级 LCC 后车辆不会自己变道 " 的设定,实际上制造了一个危险的 " 能力断层 "。

更深层的问题是技术路线的争议。特斯拉坚持 " 纯视觉 " 方案,完全依赖摄像头;理想、小鹏、华为则采用激光雷达 + 摄像头的多传感器融合。但在阳光直射或能见度低的场景下,两种路线都会栽跟头。特斯拉的视觉算法被光线干扰,理想的激光雷达同样被 " 致盲 "。

说好的全场景呢?

" 极端光线 "、" 非标准路面 "、" 驾驶员未及时接管 "…… 这三板斧几乎成了智驾事故的万能挡箭牌。

但一个基本的悖论在于:如果智驾只能在 " 标准路况 " 下使用,那它的价值何在?车企在宣传时大谈 " 端到端 "、" 全场景 "、" 多少公里零接管 ",在事故后却将场景切割成 " 极端 " 与 " 常规 ",这种 " 营销时全场景,定责时全局限 " 的双标,正在消耗消费者对智驾的信任。

2025 年 7 月 15 日,在 2025 新能源智能汽车新质发展论坛上,中国电动汽车百人会副理事长兼秘书长张永伟表示,中国 L2 级辅助驾驶的渗透率已超过 50%,这意味着中国市场上,每卖出两辆新车,就有至少一辆搭载了 L2 级辅助驾驶技术。

在车企长期模糊宣传 "L2.9999"、" 高阶智驾 " 的情况下,很大一部分消费者误认为 " 开启辅助驾驶后可玩手机 "。

更值得警惕的是数据黑箱。在缺乏国标强制要求、车企又掌握数据定义权和存储权的现状下,消费者本质上是在 " 信任驾驶 "。你既不知道 AI 当时看到了什么,也不知道它为什么那样决策,事后更无法复盘。

一位网友的评论颇为扎心:" 以前开油车,出事故是我的问题;现在开智驾车,出事故还是我的问题,那我多花的这 3 万块智驾包,是买了个爹?"

结语:

放眼整个行业,从特斯拉的纯视觉到华为的多传感器融合,从小鹏的 NGP 到理想的 NOA,没有一家能拍着胸脯保证 " 阳光不会致盲 "。 当传感器遇上夕阳就失灵,当关键数据能 " 自然灭失 ",当每一次系统误判都被归因于 " 驾驶员未接管 ",智能驾驶究竟是在辅助人,还是在训练人如何辅助机器?

青岛的这次碰撞没有造成人员伤亡,算是不幸中的万幸。但它留给行业的拷问是沉重的:当智驾成为标配,安全不能是选配!

随着法律法规的逐步完善,未来智能汽车事故调查将更加有据可依。但在当前过渡期,消费者仍需明确辅助驾驶的局限性,不盲目信赖宣传话术。同时,理性看待辅助驾驶的功能边界,即便开启智驾功能,也需全程保持注意力,做好随时接管车辆的准备,避免过度依赖系统引发安全风险。

来源:星河商业观察

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

事故 特斯拉 传感器 美国 自动驾驶
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论