Select Language

AI社区

公开数据集

UT-Interaction 人类动作数据(包含握手,点,拥抱,推,踢和拳)

UT-Interaction 人类动作数据(包含握手,点,拥抱,推,踢和拳)

581.93M
696 浏览
0 喜欢
10 次下载
0 条讨论
Action/Event Detection 2D Box

UT-Interaction数据集包含连续执行6类人 - 人交互的视频:握手,点,拥抱,推,踢和拳。提供了这些交互的地面实况标签,包括时间......

数据结构 ? 581.93M

    Data Structure ?

    * 以上分析是由系统提取分析形成的结果,具体实际数据为准。

    README.md

    UT-Interaction数据集包含连续执行6类人 - 人交互的视频:握手,点,拥抱,推,踢和拳。提供了这些交互的地面实况标签,包括时间间隔和边界框。总共有20个视频序列,其长度约为1分钟。每个视频每次互动至少包含一次执行,平均每个视频为我们提供8次人类活动。视频中出现了超过15种不同服装条件的几个参与者。这些视频的分辨率为720 * 480,30fps,视频中人物的高度约为200像素。

    我们将视频分为两组。集合1由在停车场拍摄的10个视频序列组成。设置1的视频采用略微不同的变焦率拍摄,并且它们的背景大多是静态的,几乎没有相机抖动。集合2(即其他10个序列)在刮风天在草坪上拍摄。背景稍微移动(例如树木移动),它们包含更多相机抖动。从序列1到4和从11到13,在场景中仅出现两个相互作用的人。从序列5到8和从14到17,在场景中存在相互作用的人和行人。在第9,10,18,19和20组中,几对相互作用的人同时执行活动。每组具有不同的背景,比例和照明。


    •     高级人机交互示例视频





    绩效评估方法

    必须使用每组10次留一次交叉验证来评估比赛参与者创建的系统的性能。也就是说,对于每组,我们在10个序列中留下一个用于测试,并使用其他9个用于训练。参与者必须在迭代地更改测试集的同时测量性能10次,找到平均性能。

    对于每一组,我们提供了60个活动执行,将用于培训和测试。必须使用选定的60个活动执行来衡量性能。其他执行,在我们的数据集中标记为“其他”,不得用于评估。

    我们希望参与者使用两种不同的实验设置评估他们的系统:分类和检测。对于“分类”,参与者应根据实际情况使用120个视频片段。必须测量将测试视频片段分类为正确类别的性能。在“检测”设置中,当且仅当系统正确地注释发生的活动的时间间隔(即一对开始时间和结束时间)及其空间边界框时,才测量活动识别是正确的。如果注释在空间和时间上与地面实况重叠超过50%,则检测被视为真正的正面。否则,它被视为误报。
     

    引文

    如果您以任何形式使用UT-Interaction数据集,请引用以下参考。

    @misc {UT-Interaction-Data,
          author =“Ryoo,MS and Aggarwal,JK”,
          title =“{UT} - {I} nteraction {D} ataset,{ICPR}对{S}语义{D}描述的竞赛of {H} uman {A} ctivities({SDHA})“,
          year =”2010“,
          howpublished =”http://cvrc.ece.utexas.edu/SDHA2010/Human\_Interaction.html“ 


    此外,该数据集的先前版本(即第1组)在以下文章中介绍。如果您对结果感兴趣,可以查看本文。

    @inproceedings {ryoo09,
          author =“Ryoo,MS
          title =“时空关系匹配:用于识别复杂人类活动的视频结构比较”,
          booktitle =“IEEE国际计算机视觉会议(ICCV)”,
          年份=“2009”,
          location =“Kyoto,Japan”,
    }


    暂无相关内容。
    暂无相关内容。
    • 分享你的想法
    去分享你的想法~~

    全部内容

      欢迎交流分享
      开始分享您的观点和意见,和大家一起交流分享.
    所需积分:10 去赚积分?
    • 696浏览
    • 10下载
    • 0点赞
    • 收藏
    • 分享