纸张说明:信任但验证(TBV)数据集(Neurips 2021)
信任,但验证:高清地图更改检测的交叉模式融合
约翰·兰伯特,詹姆斯·海斯
@article {lambert2022trust,
title = {信任,但验证:高清地图更改检测的交叉模式融合},
作者= {兰伯特,约翰和海斯,詹姆斯},
journal = {arxiv预印arxiv:2212.07312},
年= {2022}
}
简要摘要
- 释放第一个用于地图更改检测的数据集和大型自动驾驶汽车(AV)数据集。
- 实施基于学习的基线,用于使用此数据集进行地图更改检测。使用合成数据进行训练,并将模型推广到真实数据。
- 使用[arxiv]引导的毕业-CAM帮助识别改变的区域。这促进了地图更新,但本文不涉及。
数据集
- 传感器数据:两个表示
1)自我视图:LIDAR扫荡,7摄像头的全景视图
2)鸟类视图(bev,otthoimagery):通过射线铸造图像像素 - 板载高清地图:向量图→栅格地图
正面:准确地图,负面:陈旧地图
1)数据综合:给定真实阳性(TP)的保真度,通过扰动TP综合假底面(FN)向量图。请注意,应满足一些先前的条件。它表明,在合成数据集上训练的模型可以在一定程度上推广到实际分布。
2)人类过滤:地图更改 - 数据集拆分
(合成)训练集,合成验证集,实际验证集,(实际)测试集
方法
问题制定
分类任务:地图,传感器→匹配/不匹配
输入三重线:(地图数据,传感器数据,二进制标签)
多模式融合
CNN分支用于特征提取:RESNET-18/RESNET-50在ImageNet上预处理。
- 早期融合的方式:地图,传感器(语义)
语义细分:提供带有5级面具的额外方式。使用模型:[github] seamseg使用Resnet-50。 - 晚期融合的方式:地图,传感器
- 仅用于比较的映射方式:该模型标识HD图是真实还是合成。
场景渲染观点
- 自我视图模型:LIDAR(过滤遮挡的地图元素)和RGB图像
- BEV:RGB和预生产地面高度场,没有激光雷达
评估
- 基于可见性的评估(对于自我视图,删除封闭实体)
- 每类准确性(ACC_C)和平均准确性(MACC):
结果
- 自我视图比bev好。
- 早期融合胜于晚期融合。
- 最有效的输入方式:RGB传感器数据,语义和地图的组合。
附录
如果有一天我有兴趣,值得了解一些细节。