量子位 06-09
破解自驾数据难题!毫米波雷达可控仿真技术新框架来了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

以神经网络为核心引擎,让 AI 承担雷达仿真数据生成任务,还实现对雷达物理特性的建模与控制——

这就是光轮智能联合清华 AIR、LeddarTech 等机构提出的全新自动驾驶神经渲染框架 SA-Radar

在无需雷达具体细节的情况下,它能实现可控且逼真的雷达仿真,支持场景的灵活编辑——包括雷达属性修改、演员移除以及新视角合成,并能显著增强多种下游任务。

作为高级驾驶辅助系统(ADAS)中扮演着至关重要角色的雷达,其相关研究和开发仍面临数据获取的挑战。

尤其让人头疼的事情,是雷达图像显著受到具体软硬件细节的影响。

为了解决这一问题,SA-Radar 应运而生。

如下,真实画面右侧从左至右依次是 RGB 图像、雷达真值、雷达仿真结果、雷达属性修改后的仿真结果、去除场景目标后的仿真结果和新视角下的仿真结果。

下图展示了在同一场景中,不同雷达属性和不同视角下的仿真结果:

现存两种雷达仿真方法均有不足

凭借其卓越的抗干扰能力和在恶劣天气条件下的可靠性,雷达在复杂交通环境中表现出色。

然而,雷达相关研究和开发仍面临数据获取的挑战。

现有的雷达仿真方法可以被大致分为两种:

生成式雷达仿真

基于物理的雷达仿真

生成式雷达仿真通过生成对抗网络(GAN)等方法直接生成特定领域的雷达数据。

这种生成数据在简单的 2D 任务上能实现和真实数据接近的效果。

然而,该方法主要存在两个问题——

第一,不同雷达的接收信号存在明显的域差异,因此需要为每种雷达单独收集训练数据。

第二,由于缺乏物理先验,生成式方法无法实现雷达属性的外推,即只能仿真特定雷达属性下的数据。

相比之下,基于物理的雷达仿真通过建模电磁波从发射到接收的完整过程来仿真雷达数据,这使得它是可解释和属性可控的。

然而,这种方法需要了解详细的雷达硬件参数和复杂的信号处理算法,并花费较长的仿真时间。

通过神经渲染模型实现可控且高效仿真

为了解决上述问题,研究团队提出了SA-Radar

该方法集成了生成式方法和基于物理方法的优势,通过基于波形参数的雷达属性表示和嵌入波形参数编码的 3D U-Net 模型,实现了多种传感器设置下雷达数据的可控且高效仿真。

具体来说,该项工作提出了一种基于波形参数的雷达属性表示方法

它通过雷达回波信号在各维度的波形参数来表征雷达属性,从而有效克服了雷达具体细节的需要。

在此基础上,该项工作提出了一种高效的神经渲染方法-ICFAR-Net

它以波形参数编码的雷达属性为条件,能够捕获由不同雷达配置引起的信号变化,从而有效生成不同雷达属性下的雷达立方体(距离-方位-多普勒张量)。

研究人员介绍,SA-Radar 提供了一条完整的雷达仿真管线,精心设计了从环境仿真到雷达立方体仿真的全过程。

环境仿真

在环境仿真中,研究者构建了一个统一的反射环境张量。

该张量记录了所有反射点在雷达立方体中回波信号对应的离散位置和反射强度。

构建过程可拆分为两个阶段:场景仿真和噪声仿真。

对于场景仿真,研究过程中提供了多种传感器设置来捕捉场景中的反射点和并定义其反射强度,包括激光雷达、相机和传统雷达。

对于噪声仿真,则通过在距离、方位角和多普勒三个维度上都随机分布的反射点来模拟噪声源(即把噪声信号建模为来自噪声反射点的雷达信号)。

雷达仿真

研究团队将雷达立方体建模为每个反射点上回波信号的叠加。

这使得可以在不需要获得雷达具体细节的情况下,通过一个三维反射波形来表征雷达属性。

进一步地,团队提出了一种基于波形参数的雷达属性表示方法,通过三维反射波形在不同维度的波形参数 { σ , g, Rs, λ } 来直观地表征雷达属性。

在此基础上,研究团队设计了ICFAR-Net,这是一种基于波形参数编码的 3D U-Net,能够捕捉不同雷达配置引起的信号变化,并准确生成对应的雷达立方体(距离 - 方位 - 多普勒张量),如下图所示。

与此同时,团队构建了一个带有丰富雷达属性注释的混合数据集,以确保 ICFAR-Net 稳定训练,极大地增强了 ICFAR-Net 对不同种雷达的仿真能力。

为了测试上述研究成果,研究人员在多个下游任务上——包括 2D/3D 目标检测和雷达语义分割等,进行了广泛评估。

结果表明,SA-Radar 的模拟数据既逼真又有效,无论是单独使用还是与真实数据结合使用,都能持续提升模型性能。

此外,如文章开头所示,SA-Radar 还支持在新的传感器视角和可编辑场景中进行仿真。

精度和效率较现有方法显著提升

实验结果表明,此方法在雷达仿真的质量和效率方面都优于已有方法,并显著增强了下游任务,包括 2D/3D 目标检测和多视图语义分割。

如下表所示,这一方法的仿真误差明显更小,尤其是全局平均误差。

效率方面,雷达仿真时间在 0.036s 左右,要远远快于 RadSimReal 和传统的物理模拟(一般至少花费 5s)。

此外,这个方法的大部分时间成本在于反射环境张量 E 的生成,但也只需要 0.26s 左右。

下图则展示了仿真结果和真实雷达立方体的比较,新方法的仿真结果与真实雷达立方体高度相似(包括噪声区域)。

团队也通过多种不同的下游任务来验证 SA-Radar 仿真数据的有效性。

为了排除场景多样性导致的增益,只在 RADDet 和 Carrada 的训练集场景上生成仿真数据,数据量大约为原始数据的两倍。

下面是各任务上的实验结果。

2D 目标检测和多视图语义分割

在比较简单的任务上,如 2D 目标检测和多视图语义分割,即使仅使用此次提供的仿真数据,其效果优于使用真实数据进行训练的效果。

同时,该模型在仿真数据和真实数据的联合训练下取得了最佳性能。

3D 目标检测

团队的仿真数据训练的模型实现了接近真实数据集训练的性能,而联合训练的模型实现了最佳性能。

换句话说,SA-Radar 团队的仿真数据在三维尺度上被证明是有价值的,能在复杂任务上对真实数据稳定提供增益。

更多可视化比较结果如下:

完全使用真实数据训练的模型在 SA-Radar 团队的仿真数据上依然能够实现相当的性能,这证明了其物理合理性。

此外,团队也在 NuScene 上探究了 SA-Radar 在没有见过的传感器和场景上的表现,进一步验证了 SA-Radar 在该情况下也能鲁棒地能够仿真物理可靠的雷达数据。

论文链接:

https://arxiv.org/abs/2506.03134

Github:

https://github.com/zhuxing0/SA-Radar

项目主页:

https://zhuxing0.github.io/projects/SA-Radar

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

自动驾驶 雷达 物理 清华 效果
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论