码力全开 / 自动驾驶与传感器融合

Created Wed, 07 Jan 2026 09:56:24 +0800 Modified Wed, 07 Jan 2026 10:46:39 +0800
697 Words 1 min

传感器融合的核心是整合来自多种传感器的数据,以提升环境感知的准确性、鲁棒性和完整性,从而支持自动驾驶系统做出可靠决策。

在自动驾驶中,它主要应用于两个关键领域:

  • 感知融合(Perception Fusion),结合不同传感器的原始数据或处理结果,实现更精确的目标检测、识别和跟踪
  • 定位融合(Localization Fusion),通过融合GPS、IMU等传感器信息,提高车辆自身定位的精度

以下是3种常见的传感器,分别为激光雷达、毫米波雷达及摄像头。其特点可以归纳如下表:

激光雷达毫米波雷达摄像头
可用于定位×
可用于夜晚×
可3D建模××
雨雪天气可用××
可识别颜色××

而一般导航级地图精度是米级的,无法用于自动驾驶定位。此时需要借助高精度地图,其精度是厘米或分米级别。

理论上4颗卫星即可实现定位,再结合基站进行地面校正。而自动驾驶汽车会与高精地图场景进行对比,从而确定自己的位置。

而不同传感器会获取不同的信息,此时面临2个主要问题:

  • 空间定标,将不同传感器捕捉到的画面融合在一块
  • 时间定标,将不同时间的信号融合在一起

除此之外,不同传感器彼此的信息是矛盾的,就会出现该相信谁的问题。此时想起马斯克吹嘘纯视觉端到端模型多好,而放弃激光雷达是对的,然后说到其星链中使用激光雷达会出现彼此信息矛盾的问题。对此可以使用卡尔曼滤波来解决。

假设有两个误差符合高斯分布的传感器,其中GPS定位$Z_{1}$,误差为$\sigma_{1}^{2}$。而另一个传感器$Z_{2}$,误差为$\sigma_{2}^{2}$。

而卡尔曼给出最优的估计

$$ \begin{cases} Z=\cfrac{\sigma_{2}^{2}}{\sigma_{1}^{2}+\sigma_{2}^{2}}Z_{1}+\cfrac{\sigma_{1}^{2}}{\sigma_{1}^{2}+\sigma_{2}^{2}}Z_{2}\ \cfrac{1}{\sigma^{2}}=\cfrac{1}{\sigma_{1}^{2}}+\cfrac{1}{\sigma_{2}^{2}} \end{cases} $$

其中随更准确那么就更相信谁,对应的权重也更大一些。 参考视频:

https://www.bilibili.com/video/BV1dhHpeiET1

如果喜欢这篇文章或对您有帮助,可以:[☕] 请我喝杯咖啡 | [💓] 小额赞助