公开数据集
数据结构 ? 581.93M
Data Structure ?
* 以上分析是由系统提取分析形成的结果,具体实际数据为准。
README.md
UT-Interaction数据集包含连续执行6类人 -
人交互的视频:握手,点,拥抱,推,踢和拳。提供了这些交互的地面实况标签,包括时间间隔和边界框。总共有20个视频序列,其长度约为1分钟。每个视频每次互动至少包含一次执行,平均每个视频为我们提供8次人类活动。视频中出现了超过15种不同服装条件的几个参与者。这些视频的分辨率为720
* 480,30fps,视频中人物的高度约为200像素。
我们将视频分为两组。集合1由在停车场拍摄的10个视频序列组成。设置1的视频采用略微不同的变焦率拍摄,并且它们的背景大多是静态的,几乎没有相机抖动。集合2(即其他10个序列)在刮风天在草坪上拍摄。背景稍微移动(例如树木移动),它们包含更多相机抖动。从序列1到4和从11到13,在场景中仅出现两个相互作用的人。从序列5到8和从14到17,在场景中存在相互作用的人和行人。在第9,10,18,19和20组中,几对相互作用的人同时执行活动。每组具有不同的背景,比例和照明。
高级人机交互示例视频
绩效评估方法
必须使用每组10次留一次交叉验证来评估比赛参与者创建的系统的性能。也就是说,对于每组,我们在10个序列中留下一个用于测试,并使用其他9个用于训练。参与者必须在迭代地更改测试集的同时测量性能10次,找到平均性能。
对于每一组,我们提供了60个活动执行,将用于培训和测试。必须使用选定的60个活动执行来衡量性能。其他执行,在我们的数据集中标记为“其他”,不得用于评估。
我们希望参与者使用两种不同的实验设置评估他们的系统:分类和检测。对于“分类”,参与者应根据实际情况使用120个视频片段。必须测量将测试视频片段分类为正确类别的性能。在“检测”设置中,当且仅当系统正确地注释发生的活动的时间间隔(即一对开始时间和结束时间)及其空间边界框时,才测量活动识别是正确的。如果注释在空间和时间上与地面实况重叠超过50%,则检测被视为真正的正面。否则,它被视为误报。
引文
如果您以任何形式使用UT-Interaction数据集,请引用以下参考。
@misc {UT-Interaction-Data,
author =“Ryoo,MS and Aggarwal,JK”,
title =“{UT} - {I} nteraction {D} ataset,{ICPR}对{S}语义{D}描述的竞赛of {H} uman {A} ctivities({SDHA})“,
year =”2010“,
howpublished =”http://cvrc.ece.utexas.edu/SDHA2010/Human\_Interaction.html“
}
此外,该数据集的先前版本(即第1组)在以下文章中介绍。如果您对结果感兴趣,可以查看本文。
@inproceedings {ryoo09,
author =“Ryoo,MS
title =“时空关系匹配:用于识别复杂人类活动的视频结构比较”,
booktitle =“IEEE国际计算机视觉会议(ICCV)”,
年份=“2009”,
location =“Kyoto,Japan”,
}
- 分享你的想法
全部内容
数据使用声明:
- 1、该数据来自于互联网数据采集或服务商的提供,本平台为用户提供数据集的展示与浏览。
- 2、本平台仅作为数据集的基本信息展示、包括但不限于图像、文本、视频、音频等文件类型。
- 3、数据集基本信息来自数据原地址或数据提供方提供的信息,如数据集描述中有描述差异,请以数据原地址或服务商原地址为准。
- 1、本站中的所有数据集的版权都归属于原数据发布者或数据提供方所有。
- 1、如您需要转载本站数据,请保留原数据地址及相关版权声明。
- 1、如本站中的部分数据涉及侵权展示,请及时联系本站,我们会安排进行数据下线。