首页 > 其他 > 详细

2018AVA: A Video Dataset of Spatio-temporally Localized Atomic Visual Actions

时间:2019-04-19 14:32:01      阅读:180      评论:0      收藏:0      [点我收藏+]

 

 

 

 

论文标题:AVA: A Video Dataset of Spatio-temporally Localized Atomic Visual Actions

 

来源/作者机构情况:

谷歌,http://www.cs.toronto.edu/~dross/

UC Berkeley

 

解决问题/主要思想贡献:

贡献了一个新的动作分类的数据集

 

成果/优点:

 分类更加多,单人,多人,人和物体的动作三大类。还有时间和空间上更加精确的标定

技术分享图片

 

人类动作识别数据集AVA(atomic visual actions,原子视觉动作),提供扩展视频序列中每个人的多个动作标签,精确标注多人动作,我们将动作标签限制在固定的3s时间内。
[电影」和「电视」类别,选择来自不同国家的专业演员。我们对每个视频抽取 15 分钟进行分析,并统一将 15 分钟视频分割成 300 个非重叠的 3 秒片段。采样遵循保持动作序列的时间顺序这一策略。

 

数据集地址:https://research.google.com/ava/      需要科学链接

 

 缺点:

 反思改进/灵感:

#############################################################

论文主要内容与关键点:

论文主要部分:

技术分享图片

 

 1. Introduction

数据集的基本参数:连续三秒长,80种不同的动作类型

2. Related work 动作类数据集

 

 技术分享图片

技术分享图片

 

 技术分享图片

技术分享图片

 

技术分享图片

静态动作数据集,以及这些数据记的缺点:失去了时间的特征

技术分享图片

 

 

技术分享图片

技术分享图片

技术分享图片

 

 3. Data collection:

4. Characteristics of the AVA dataset

 

5. Experiments

技术分享图片

 

6. Conclusion

目前的研究方法,在AVA数据集都还没有取得SOFA的结果,说明视频动作分类还需要研究出更好的算法出来。

 

代码实现:

https://github.com/tensorflow/models/tree/master/research/object_detection

2018AVA: A Video Dataset of Spatio-temporally Localized Atomic Visual Actions

原文:https://www.cnblogs.com/captain-dl/p/10735415.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!