传感器融合的核心是整合来自多种传感器的数据,以提升环境感知的准确性、鲁棒性和完整性,从而支持自动驾驶系统做出可靠决策。
在自动驾驶中,它主要应用于两个关键领域:
- 感知融合(Perception Fusion),结合不同传感器的原始数据或处理结果,实现更精确的目标检测、识别和跟踪
- 定位融合(Localization Fusion),通过融合GPS、IMU等传感器信息,提高车辆自身定位的精度
以下是3种常见的传感器,分别为激光雷达、毫米波雷达及摄像头。其特点可以归纳如下表:
| 激光雷达 | 毫米波雷达 | 摄像头 | |
|---|---|---|---|
| 可用于定位 | √ | √ | × |
| 可用于夜晚 | √ | √ | × |
| 可3D建模 | √ | × | × |
| 雨雪天气可用 | × | √ | × |
| 可识别颜色 | × | × | √ |
而一般导航级地图精度是米级的,无法用于自动驾驶定位。此时需要借助高精度地图,其精度是厘米或分米级别。
理论上4颗卫星即可实现定位,再结合基站进行地面校正。而自动驾驶汽车会与高精地图场景进行对比,从而确定自己的位置。
而不同传感器会获取不同的信息,此时面临2个主要问题:
- 空间定标,将不同传感器捕捉到的画面融合在一块
- 时间定标,将不同时间的信号融合在一起
除此之外,不同传感器彼此的信息是矛盾的,就会出现该相信谁的问题。此时想起马斯克吹嘘纯视觉端到端模型多好,而放弃激光雷达是对的,然后说到其星链中使用激光雷达会出现彼此信息矛盾的问题。对此可以使用卡尔曼滤波来解决。
假设有两个误差符合高斯分布的传感器,其中GPS定位$Z_{1}$,误差为$\sigma_{1}^{2}$。而另一个传感器$Z_{2}$,误差为$\sigma_{2}^{2}$。
而卡尔曼给出最优的估计
$$ \begin{cases} Z=\cfrac{\sigma_{2}^{2}}{\sigma_{1}^{2}+\sigma_{2}^{2}}Z_{1}+\cfrac{\sigma_{1}^{2}}{\sigma_{1}^{2}+\sigma_{2}^{2}}Z_{2}\ \cfrac{1}{\sigma^{2}}=\cfrac{1}{\sigma_{1}^{2}}+\cfrac{1}{\sigma_{2}^{2}} \end{cases} $$
其中随更准确那么就更相信谁,对应的权重也更大一些。 参考视频:
如果喜欢这篇文章或对您有帮助,可以:[☕] 请我喝杯咖啡 | [💓] 小额赞助

