纸张说明:信任但验证(TBV)数据集(Neurips 2021)

信任,但验证:高清地图更改检测的交叉模式融合
约翰·兰伯特,詹姆斯·海斯

@article {lambert2022trust,
title = {信任,但验证:高清地图更改检测的交叉模式融合},
作者= {兰伯特,约翰和海斯,詹姆斯},
journal = {arxiv预印arxiv:2212.07312},
年= {2022}
}

简要摘要

  1. 释放第一个用于地图更改检测的数据集和大型自动驾驶汽车(AV)数据集。
  2. 实施基于学习的基线,用于使用此数据集进行地图更改检测。使用合成数据进行训练,并将模型推广到真实数据。
  3. 使用[arxiv]引导的毕业-CAM帮助识别改变的区域。这促进了地图更新,但本文不涉及。

数据集

  1. 传感器数据:两个表示
    1)自我视图:LIDAR扫荡,7摄像头的全景视图
    2)鸟类视图(bev,otthoimagery):通过射线铸造图像像素
  2. 板载高清地图:向量图→栅格地图
    正面:准确地图,负面:陈旧地图
    1)数据综合:给定真实阳性(TP)的保真度,通过扰动TP综合假底面(FN)向量图。请注意,应满足一些先前的条件。它表明,在合成数据集上训练的模型可以在一定程度上推广到实际分布。
    2)人类过滤:地图更改
  3. 数据集拆分
    (合成)训练集,合成验证集,实际验证集,(实际)测试集

方法

问题制定

分类任务:地图,传感器→匹配/不匹配
输入三重线:(地图数据,传感器数据,二进制标签)

多模式融合

CNN分支用于特征提取:RESNET-18/RESNET-50在ImageNet上预处理。

  1. 早期融合的方式:地图,传感器(语义)
    语义细分:提供带有5级面具的额外方式。使用模型:[github] seamseg使用Resnet-50。
  2. 晚期融合的方式:地图,传感器
  3. 仅用于比较的映射方式:该模型标识HD图是真实还是合成。

场景渲染观点

  1. 自我视图模型:LIDAR(过滤遮挡的地图元素)和RGB图像
  2. BEV:RGB和预生产地面高度场,没有激光雷达

评估

  1. 基于可见性的评估(对于自我视图,删除封闭实体)
  2. 每类准确性(ACC_C)和平均准确性(MACC):

结果

  1. 自我视图比bev好。
  2. 早期融合胜于晚期融合。
  3. 最有效的输入方式:RGB传感器数据,语义和地图的组合。

附录

如果有一天我有兴趣,值得了解一些细节。

- -

- -

获取中型应用betway娱乐官网

一个说“在应用商店上下载”的按钮,如果单击,它将带您到iOS App Store
一个说“获取它,Google Play”的按钮,如果单击它,它将带您到Google Play商店
Baidu