公开数据集

视觉感知数据集 JackRabbot
Scene:
Action/Event DetectionData Type:
Classification
Data Preview ?
71.5G
Data Structure ?
*数据结构实际以真实数据为准
斯坦福视觉与学习实验室研究团队在一篇名为「JRDB:用于人类环境中导航的视觉感知的数据集和基准」的研究中介绍了他们从其社交移动操纵器 JackRabbot 收集的新颖数据集 JRDB。
数据集包括 64 分钟的多模式传感器数据,包括 15 fps 的立体圆柱 360 度 RGB 视频,两个 Velodyne 16 激光雷达的 3D 点云,两个 Sick 激光雷达的线 3D 点云,音频信号,30 fps 的 RGBD 视频,360 度球形鱼眼镜头拍摄的图像和机器人车轮的编码器值。
该数据集包括来自传统上代表性不足的场景(例如室内环境和行人区域)的数据,这些数据来自固定和导航机器人平台。该数据集已标注了超过 230 万个包围盒,这些包围盒分布在场景中的所有人周围的 5 个单独的摄像头中,以及 180 万个相关的 3D 长方体,总计超过 3500 条时间一致的轨迹。
除此以外,研究团队为 2D 和 3D 人检测和跟踪启动了基准和度量。借助计划在将来进行进一步注释的数据集,研究团队希望提供新的数据源以及测试平台,以用于研究机器人自主导航以及人类环境中围绕社交机器人的所有感知任务。
数据使用声明:
- 1、该数据来自于互联网数据采集或服务商的提供,本平台为用户提供数据集的展示与浏览。
- 2、本平台仅作为数据集的基本信息展示、包括但不限于图像、文本、视频、音频等文件类型。
- 3、数据集基本信息来自数据原地址或数据提供方提供的信息,如数据集描述中有描述差异,请以数据原地址或服务商原地址为准。
- 1、本站中的所有数据集的版权都归属于原数据发布者或数据提供方所有。
- 1、如您需要转载本站数据,请保留原数据地址及相关版权声明。
- 1、如本站中的部分数据涉及侵权展示,请及时联系本站,我们会安排进行数据下线。
一、数据来源与展示说明:
二、所有权说明:
三、数据转载说明:
四、侵权与处理说明:
0 条相关评论