Select Language

AI社区

公开数据集

Argoverse Dataset 自动驾驶数据集

Argoverse Dataset 自动驾驶数据集

275G
1344 浏览
3 喜欢
43 次下载
0 条讨论
Autonomous Driving 3D Model

Argoverse数据集是由Argo AI、卡内基梅隆大学、佐治亚理工学院发布的用于支持自动驾驶汽车3D Tracking和Motion Forecasting研究......

数据结构 ? 275G

    README.md

    Argoverse数据集是由Argo  AI、卡内基梅隆大学、佐治亚理工学院发布的用于支持自动驾驶汽车3D Tracking和Motion  Forecasting研究的数据集。数据集包括两个部分:Argoverse 3D跟踪与Argoverse运动预测。

    Argoverse中的数据来自Argo AI的自动驾驶测试车辆在迈阿密和匹兹堡(这两个美国城市面临不同的城市驾驶挑战和当地驾驶习惯)运行的地区的子集。包括跨不同季节,天气条件和一天中不同时间的传感器数据或“日志段”的记录,以提供广泛的实际驾驶场景。  总车道覆盖范围:迈阿密204线性公里,匹兹堡86线性公里。

    Argoverse是第一个包含高精地图的数据集,它包含了290KM的带有几何形状和语义信息的高精地图数据。

    Argoverse高精地图坐标系采用UTM坐标系,UTM将全球分成60个Zone,每个Zone经度方向跨越6度,在UTM基础之上,Argoverse又将坐标系相对于单个城市的固定坐标进行偏移,从而得到最终数据集的地图坐标系。

    Argoverse特点:

    1、具有113个场景的3D跟踪注释的一个数据集

    2、一个数据集,包含从1000多个驾驶小时中提取的324,557条有趣的车辆轨迹

    3、两张具有车道中心线,交通方向,地面高度等的高清(HD)地图

    4、一个API,用于将地图数据与传感器信息连接起来

    一、数据是如何收集的?

    我们使用与Argo AI自动驾驶技术完全集成的相同福特融合混合动力车队收集了所有数据。我们包括来自两个LiDAR传感器,七个环形摄像头和两个前置立体声摄像头的数据。所有传感器都安装在屋顶:

    1.1 激光雷达:

    2.2.1、2个屋顶式LiDAR传感器

    2.2.2、重叠40°垂直视野

    2.2.3、射程200m

    2.2.4、平均而言,我们的LiDAR传感器在10 Hz时产生约107,000个点的点云。

    1.2 特定城市与区域

    我们使用特定于城市的坐标系进行车辆定位。我们结合了基于GPS的定位方法和基于传感器的定位方法,为每个时间戳都包含6自由度定位。

    1.3 立体摄影机

    七个高分辨率环形摄像头(1920 x 1200),以30 Hz的频率记录,并具有360°视场     以5 Hz采样的两个前视立体摄像机(2056 x 2464)

    1.4 内外部校准

    每次驾驶会话的传感器测量结果都存储在“日志”中。对于每个日志,我们提供LiDAR和所有九个摄像机的内部和外部校准数据

    地图包含丰富的几何和语义元数据,可以更好地理解3D场景。从地面高度到下一个交叉点为止的剩余距离,我们的地图使研究人员能够探索高清地图在机器人感知中的潜力。

    二、Argoverse地图

    有三个不同的组件使我们的地图与众不同:

    1、几何级车道矢量图

    我们的语义矢量地图传达了有用的车道级别细节,例如车道中心线,交通方向和交叉路口注释。通过这些功能以及更多功能,用户可以探索交通流经我们测试区域中城市街道和复杂路口的多种方式,并获得每个场景前后的全面情况。

    2、可驾驶区域的栅格化地图

    我们的地图包含一米网格分辨率的二进制可驱动区域标签。可驾驶区域是车辆可能驾驶的区域(尽管不一定合法)。我们在3D跟踪中概述的跟踪注释延伸到可行驶区域之外五米。我们称这个更大的区域为“关注区域”。

    3、具有实际高度的栅格化地图

    我们的地图包括一米分辨率的实值地面高度。借助我们的地图工具,用户可以去除不平坦地面上的LiDAR返回物,从而更易于检测物体。

    三、Argoverse 3D追踪

    Argoverse 3D跟踪是113个日志段的集合,其中包含3D对象跟踪注释。这些日志段(我们称为“序列”)的长度从15秒到30秒不等,总共包含11052条轨道。

    我们的训练和验证集中的每个序列都包含对所有物体的注释,这些物体位于我们称为“可驾驶区域”(车辆可以行驶的区域)5米以内的区域。 是什么使这个数据集脱颖而出?

    用户可以构建算法,以利用Argoverse的高清地图中的详细信息。例如,一种算法可以使用地图在LiDAR返回处执行地面移除操作,或基于车道方向约束车辆方向。

    资料注解

    Argoverse在可驱动区域上或附近的所有关注对象上均包含无定形态3D边界长方体。   “无模态”是指每个长方体的3D范围代表对象在3D空间中的空间范围-不仅是观察到的像素或观察到的LiDAR返回的范围,对于被遮挡的对象来说较小,而对于仅从观察到的对象来说是模糊的一张脸。

    通过将长方体拟合到在整个跟踪序列中观察到的每个对象的LiDAR返回,将自动生成我们的非模态注释。如果对象的整个空间范围在一帧中模棱两可,则可以使用来自前一帧或后一帧的信息来约束形状。随着时间的推移,无定形长方体的大小是固定的。数据集中的一些对象会动态更改大小(例如,汽车开着门),并导致不完全的无峰长方体拟合。

    为了创建模态长方体,我们在每个时间步确定属于每个对象的点。这些信息以及每个对象的方向都来自人工注释者。

    我们为15个对象类提供了地面真相标签。这些类中的两个包括位于我们定义的键类别之外的静态和动态对象,它们分别称为ON_ROAD_OBSTACLE和OTHER_MOVER。这些对象类在Argoverse 3D跟踪中所有带注释的对象上的分布如下所示:

    四、Argoverse运动预测

    训练和验证运动预测模型的数据集

    Argoverse运动预测是一个精心挑选的324,557个场景集合,每个场景5秒,用于训练和验证。每个场景都包含以10 Hz采样的每个跟踪对象的2D鸟瞰质心。

    为了创建这个集合,我们从自动驾驶测试车队中筛选了1000多个小时的驾驶数据,以查找最具挑战性的细分市场-包括显示交叉路口的车辆,向左转或向右转弯的车辆以及改变车道的车辆。


    Citation

    In June 2019, we released the Argoverse datasets to coincide with the appearance of our publication, Argoverse: 3D Tracking with Forecasting and Rich Maps, in CVPR 2019. When referencing this publication or any of the materials we provide, please use the following citation:

    @INPROCEEDINGS { Argoverse,
      author = {Ming-Fang Chang and John W Lambert and Patsorn Sangkloy and Jagjeet Singh
           and Slawomir Bak and Andrew Hartnett and De Wang and Peter Carr
           and Simon Lucey and Deva Ramanan and James Hays},
      title = {Argoverse: 3D Tracking and Forecasting with Rich Maps},
      booktitle = {Conference on Computer Vision and Pattern Recognition (CVPR)},
      year = {2019}
    }


    暂无相关内容。
    暂无相关内容。
    • 分享你的想法
    去分享你的想法~~

    全部内容

      欢迎交流分享
      开始分享您的观点和意见,和大家一起交流分享.
    所需积分:40 去赚积分?
    • 1344浏览
    • 43下载
    • 3点赞
    • 收藏
    • 分享