论文阅读 (37):Discriminative multi-instance multitask learning for 3D action recognition
文章目录
- 引入
- 1 方法概述 (扯淡用)
- 2 符号定义
- 3 关键技术
- 3.1 辨别性多示例
引入
题目:用于3D动作识别的辨别性多示例多任务学习 (Discriminative multi-instance multitask learning for 3D action recognition)
代码:
摘要:随着低成本和易操作深度相机的蓬勃发展,基于骨骼的人体动作识别得到了广泛研究。然而,大多数现有方法简单地认为人体骨骼的所有3D关节都是相同的。事实上,这些3D关节对不同的动作类型会表现出不同的响应,并且一些关节配置更能区分某个动作。本文提出辨别性多示例多任务学习 (discriminative multi-instance multitask learning, MIMTL)框架,用以发掘关节配置和动作类型之间的本质关系:
1)将动作和关节配置分别视作多示例学习类型的包及实例,用于捕获一组用于相应动作类型的辨别性和新信息关节配置;
2)利用具有组结构约束的多任务学习模型来揭示关节配置与不同动作类别之间的内在联系。
Bib:
@article{Yang:2017:519529,
author = {Yan Hua Yang and Cheng Deng and Shang Qian Gao and Wei Liu and Da Peng Tao and Xin Bo Gao},
title = {Discriminative multi-instance multitask learning for $3${D} action recognition},
journal = {{IEEE} Transactions on Multimedia},
volume = {19},
number = {3},
year = {2017},
pages = {519-529}
}
1 方法概述 (扯淡用)
本文提出了一个用于 3 3 3D人体动作识别的两阶段学习框架,称为多示例多任务学习模型 (MIMTl),具体来说:
1)在MIL阶段,每个动作序列被认为是一个包,其中的实例对应为一个可能的联合配置;
2)应用MIL范式建立包与实例之间的相关关系。当动作类型已知时,可以推断出关节配置的标签;
3)根据关节配置标签与动作类别之间的一致性,可以确定特定动作类别的最具辨别性的关节配置;
4)每个动作都被视为一项动作,通过利用动作之间共享的知识,同时识别所有动作;
5)使用联合配置来提升辨别能力。
2 符号定义
| 符号 | 含义 |
|---|---|
| T = ( X , Y ) = { ( X i l , Y i l ) i = 1 n l } l = 1 L \mathcal{T} = (\mathbf{X}, \mathbf{Y})=\{ (X_{il}, Y_{il})_{i = 1}^{n_l} \}_{l = 1}^L T=(X,Y)={(Xil,Yil)i=1nl}l=1L | 具有输入输出结构对的训练集 |
| Y i l ∈ { 1 , 2 , … . L } Y_{il}\in\{1,2,\dots.L\} Yil∈{1,2,….L} | 动作类别 |
| L L L | 动作类别的数量 |
| n l n_l nl | 第 l l l动作的数量 |
| N = ∑ l = 1 L n l N = \sum_{l=1}^Ln_l N=∑l=1Lnl | 训练空间大小 |
特别地,包 X i l X_{il} Xil中的实例都根据时间来排列。第一次看见这种数据集的定义方式,它把同一类别的放在一起。
3 关键技术
3.1 辨别性多示例
对于 3 3 3D行为识别,我们将每一个单独的行为序列 X i l X_{il} Xil看作一个标记包,这个行为可能的关节配置 (joint configurations)看作是实例。与已有的多示例研究不同,我们要去预测实例的标签 (厉害)。
假设已有 N J N_J NJ个关节配置,定义 X i l = { x i l m , y i l m } m = 1 N J X_{il}=\{x^m_{il},y_{il}^m\}_{m=1}^{N_J} Xil={xilm,yilm}m=1NJ,其中 y y y
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
