|
a |
|
b/README_zh-CN.md |
|
|
1 |
<div align="center"> |
|
|
2 |
<img src="https://github.com/open-mmlab/mmaction2/raw/master/resources/mmaction2_logo.png" width="600"/> |
|
|
3 |
<div> </div> |
|
|
4 |
<div align="center"> |
|
|
5 |
<b><font size="5">OpenMMLab 官网</font></b> |
|
|
6 |
<sup> |
|
|
7 |
<a href="https://openmmlab.com"> |
|
|
8 |
<i><font size="4">HOT</font></i> |
|
|
9 |
</a> |
|
|
10 |
</sup> |
|
|
11 |
|
|
|
12 |
<b><font size="5">OpenMMLab 开放平台</font></b> |
|
|
13 |
<sup> |
|
|
14 |
<a href="https://platform.openmmlab.com"> |
|
|
15 |
<i><font size="4">TRY IT OUT</font></i> |
|
|
16 |
</a> |
|
|
17 |
</sup> |
|
|
18 |
</div> |
|
|
19 |
<div> </div> |
|
|
20 |
</div> |
|
|
21 |
|
|
|
22 |
## 简介 |
|
|
23 |
|
|
|
24 |
[English](/README.md) | 简体中文 |
|
|
25 |
|
|
|
26 |
[](https://mmaction2.readthedocs.io/zh_CN/latest/) |
|
|
27 |
[](https://github.com/open-mmlab/mmaction2/actions) |
|
|
28 |
[](https://codecov.io/gh/open-mmlab/mmaction2) |
|
|
29 |
[](https://pypi.org/project/mmaction2/) |
|
|
30 |
[](https://github.com/open-mmlab/mmaction2/blob/master/LICENSE) |
|
|
31 |
[](https://github.com/open-mmlab/mmaction2/issues) |
|
|
32 |
[](https://github.com/open-mmlab/mmaction2/issues) |
|
|
33 |
|
|
|
34 |
MMAction2 是一款基于 PyTorch 的视频理解开源工具箱,是 [OpenMMLab](http://openmmlab.org/) 项目的成员之一 |
|
|
35 |
|
|
|
36 |
主分支代码目前支持 **PyTorch 1.3 以上**的版本 |
|
|
37 |
|
|
|
38 |
<div align="center"> |
|
|
39 |
<div style="float:left;margin-right:10px;"> |
|
|
40 |
<img src="https://github.com/open-mmlab/mmaction2/raw/master/resources/mmaction2_overview.gif" width="380px"><br> |
|
|
41 |
<p style="font-size:1.5vw;">Kinetics-400 上的动作识别</p> |
|
|
42 |
</div> |
|
|
43 |
<div style="float:right;margin-right:0px;"> |
|
|
44 |
<img src="https://user-images.githubusercontent.com/34324155/123989146-2ecae680-d9fb-11eb-916b-b9db5563a9e5.gif" width="380px"><br> |
|
|
45 |
<p style="font-size:1.5vw;">NTURGB+D-120 上的基于人体姿态的动作识别</p> |
|
|
46 |
</div> |
|
|
47 |
</div> |
|
|
48 |
<div align="center"> |
|
|
49 |
<img src="https://github.com/open-mmlab/mmaction2/raw/master/resources/spatio-temporal-det.gif" width="800px"/><br> |
|
|
50 |
<p style="font-size:1.5vw;">AVA-2.1 上的时空动作检测</p> |
|
|
51 |
</div> |
|
|
52 |
|
|
|
53 |
## 主要特性 |
|
|
54 |
|
|
|
55 |
- **模块化设计**:MMAction2 将统一的视频理解框架解耦成不同的模块组件,通过组合不同的模块组件,用户可以便捷地构建自定义的视频理解模型 |
|
|
56 |
|
|
|
57 |
- **支持多种任务和数据集**:MMAction2 支持多种视频理解任务,包括动作识别,时序动作检测,时空动作检测以及基于人体姿态的动作识别,总共支持 **27** 种算法和 **20** 种数据集 |
|
|
58 |
|
|
|
59 |
- **详尽的单元测试和文档**:MMAction2 提供了详尽的说明文档,API 接口说明,全面的单元测试,以供社区参考 |
|
|
60 |
|
|
|
61 |
## 更新记录 |
|
|
62 |
|
|
|
63 |
- (2021-11-24) 在 NTU60 XSub 上支持 **2s-AGCN**, 在 joint stream 和 bone stream 上分别达到 86.06% 和 86.89% 的识别准确率。 |
|
|
64 |
- (2021-10-29) 支持基于 skeleton 模态和 rgb 模态的时空动作检测和行为识别 demo (demo/demo_video_structuralize.py)。 |
|
|
65 |
- (2021-10-26) 在 NTU60 3d 关键点标注数据集上训练测试 **STGCN**, 可达到 84.61% (高于 [paper](https://www.aaai.org/ocs/index.php/AAAI/AAAI18/paper/viewPaper/17135) 中的 81.5%) 的识别准确率。 |
|
|
66 |
- (2021-10-25) 提供将 NTU60 和 NTU120 的 3d 骨骼点数据转换成我们项目的格式的脚本(tools/data/skeleton/gen_ntu_rgbd_raw.py)。 |
|
|
67 |
- (2021-10-25) 提供使用自定义数据集训练 PoseC3D 的 [教程](https://github.com/open-mmlab/mmaction2/blob/master/configs/skeleton/posec3d/custom_dataset_training.md),此 PR 由用户 [bit-scientist](https://github.com/bit-scientist) 完成! |
|
|
68 |
- (2021-10-16) 在 UCF101, HMDB51 上支持 **PoseC3D**,仅用 2D 关键点就可分别达到 87.0% 和 69.3% 的识别准确率。两数据集的预提取骨架特征可以公开下载。 |
|
|
69 |
|
|
|
70 |
v0.21.0 版本已于 2021 年 12 月 31 日发布,可通过查阅 [更新日志](/docs/changelog.md) 了解更多细节以及发布历史 |
|
|
71 |
|
|
|
72 |
## 安装 |
|
|
73 |
|
|
|
74 |
请参考 [安装指南](/docs_zh_CN/install.md) 进行安装 |
|
|
75 |
|
|
|
76 |
## 教程 |
|
|
77 |
|
|
|
78 |
请参考 [基础教程](/docs_zh_CN/getting_started.md) 了解 MMAction2 的基本使用。MMAction2也提供了其他更详细的教程: |
|
|
79 |
|
|
|
80 |
- [如何编写配置文件](/docs_zh_CN/tutorials/1_config.md) |
|
|
81 |
- [如何微调模型](/docs_zh_CN/tutorials/2_finetune.md) |
|
|
82 |
- [如何增加新数据集](/docs_zh_CN/tutorials/3_new_dataset.md) |
|
|
83 |
- [如何设计数据处理流程](/docs_zh_CN/tutorials/4_data_pipeline.md) |
|
|
84 |
- [如何增加新模块](/docs_zh_CN/tutorials/5_new_modules.md) |
|
|
85 |
- [如何导出模型为 onnx 格式](/docs_zh_CN/tutorials/6_export_model.md) |
|
|
86 |
- [如何自定义模型运行参数](/docs_zh_CN/tutorials/7_customize_runtime.md) |
|
|
87 |
|
|
|
88 |
MMAction2 也提供了相应的中文 Colab 教程,可以点击 [这里](https://colab.research.google.com/github/open-mmlab/mmaction2/blob/master/demo/mmaction2_tutorial_zh-CN.ipynb) 进行体验! |
|
|
89 |
|
|
|
90 |
## 模型库 |
|
|
91 |
|
|
|
92 |
<table style="margin-left:auto;margin-right:auto;font-size:1.3vw;padding:3px 5px;text-align:center;vertical-align:center;"> |
|
|
93 |
<tr> |
|
|
94 |
<td colspan="5" style="font-weight:bold;">行为识别方法</td> |
|
|
95 |
</tr> |
|
|
96 |
<tr> |
|
|
97 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/c3d/README_zh-CN.md">C3D</a> (CVPR'2014)</td> |
|
|
98 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/tsn/README_zh-CN.md">TSN</a> (ECCV'2016)</td> |
|
|
99 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/i3d/README_zh-CN.md">I3D</a> (CVPR'2017)</td> |
|
|
100 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/i3d/README_zh-CN.md">I3D Non-Local</a> (CVPR'2018)</td> |
|
|
101 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/r2plus1d/README_zh-CN.md">R(2+1)D</a> (CVPR'2018)</td> |
|
|
102 |
</tr> |
|
|
103 |
<tr> |
|
|
104 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/trn/README_zh-CN.md">TRN</a> (ECCV'2018)</td> |
|
|
105 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/tsm/README_zh-CN.md">TSM</a> (ICCV'2019)</td> |
|
|
106 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/tsm/README_zh-CN.md">TSM Non-Local</a> (ICCV'2019)</td> |
|
|
107 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/slowonly/README_zh-CN.md">SlowOnly</a> (ICCV'2019)</td> |
|
|
108 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/slowfast/README_zh-CN.md">SlowFast</a> (ICCV'2019)</td> |
|
|
109 |
</tr> |
|
|
110 |
<tr> |
|
|
111 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/csn/README_zh-CN.md">CSN</a> (ICCV'2019)</td> |
|
|
112 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/tin/README_zh-CN.md">TIN</a> (AAAI'2020)</td> |
|
|
113 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/tpn/README_zh-CN.md">TPN</a> (CVPR'2020)</td> |
|
|
114 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/x3d/README_zh-CN.md">X3D</a> (CVPR'2020)</td> |
|
|
115 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/omnisource/README_zh-CN.md">OmniSource</a> (ECCV'2020)</td> |
|
|
116 |
</tr> |
|
|
117 |
<tr> |
|
|
118 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition_audio/resnet/README_zh-CN.md">MultiModality: Audio</a> (ArXiv'2020)</td> |
|
|
119 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/tanet/README_zh-CN.md">TANet</a> (ArXiv'2020)</td> |
|
|
120 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/recognition/timesformer/README_zh-CN.md">TimeSformer</a> (ICML'2021)</td> |
|
|
121 |
<td></td> |
|
|
122 |
<td></td> |
|
|
123 |
</tr> |
|
|
124 |
<tr> |
|
|
125 |
<td colspan="5" style="font-weight:bold;">时序动作检测方法</td> |
|
|
126 |
</tr> |
|
|
127 |
<tr> |
|
|
128 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/localization/ssn/README_zh-CN.md">SSN</a> (ICCV'2017)</td> |
|
|
129 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/localization/bsn/README_zh-CN.md">BSN</a> (ECCV'2018)</td> |
|
|
130 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/localization/bmn/README_zh-CN.md">BMN</a> (ICCV'2019)</td> |
|
|
131 |
<td></td> |
|
|
132 |
<td></td> |
|
|
133 |
</tr> |
|
|
134 |
<tr> |
|
|
135 |
<td colspan="5" style="font-weight:bold;">时空动作检测方法</td> |
|
|
136 |
</tr> |
|
|
137 |
<tr> |
|
|
138 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/detection/acrn/README_zh-CN.md">ACRN</a> (ECCV'2018)</td> |
|
|
139 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/detection/ava/README_zh-CN.md">SlowOnly+Fast R-CNN</a> (ICCV'2019)</td> |
|
|
140 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/detection/ava/README_zh-CN.md">SlowFast+Fast R-CNN</a> (ICCV'2019)</td> |
|
|
141 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/detection/lfb/README_zh-CN.md">LFB</a> (CVPR'2019)</td> |
|
|
142 |
<td></td> |
|
|
143 |
</tr> |
|
|
144 |
<tr> |
|
|
145 |
<td colspan="5" style="font-weight:bold;">基于骨骼点的动作识别方法</td> |
|
|
146 |
</tr> |
|
|
147 |
<tr> |
|
|
148 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/skeleton/stgcn/README.md">ST-GCN</a> (AAAI'2018)</td> |
|
|
149 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/configs/skeleton/posec3d/README.md">PoseC3D</a> (ArXiv'2021)</td> |
|
|
150 |
<td></td> |
|
|
151 |
<td></td> |
|
|
152 |
<td></td> |
|
|
153 |
</tr> |
|
|
154 |
</table> |
|
|
155 |
|
|
|
156 |
各个模型的结果和设置都可以在对应的 config 目录下的 *README_zh-CN.md* 中查看。整体的概况也可也在 [**模型库**](https://mmaction2.readthedocs.io/zh_CN/latest/recognition_models.html) 页面中查看 |
|
|
157 |
|
|
|
158 |
MMAction2 将跟进学界的最新进展,并支持更多算法和框架。如果您对 MMAction2 有任何功能需求,请随时在 [问题](https://github.com/open-mmlab/mmaction2/issues/19) 中留言。 |
|
|
159 |
|
|
|
160 |
## 数据集 |
|
|
161 |
|
|
|
162 |
<table style="margin-left:auto;margin-right:auto;font-size:1.3vw;padding:3px 5px;text-align:center;vertical-align:center;"> |
|
|
163 |
<tr> |
|
|
164 |
<td colspan="4" style="font-weight:bold;">动作识别数据集</td> |
|
|
165 |
</tr> |
|
|
166 |
<tr> |
|
|
167 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/hmdb51/README_zh-CN.md">HMDB51</a> (<a href="https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/">主页</a>) (ICCV'2011)</td> |
|
|
168 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/ucf101/README_zh-CN.md">UCF101</a> (<a href="https://www.crcv.ucf.edu/research/data-sets/ucf101/">主页</a>) (CRCV-IR-12-01)</td> |
|
|
169 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/activitynet/README_zh-CN.md">ActivityNet</a> (<a href="http://activity-net.org/">主页</a>) (CVPR'2015)</td> |
|
|
170 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/kinetics/README_zh-CN.md">Kinetics-[400/600/700]</a> (<a href="https://deepmind.com/research/open-source/kinetics/">主页</a>) (CVPR'2017)</td> |
|
|
171 |
</tr> |
|
|
172 |
<tr> |
|
|
173 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/sthv1/README_zh-CN.md">SthV1</a> (<a href="https://20bn.com/datasets/something-something/v1/">主页</a>) (ICCV'2017)</td> |
|
|
174 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/sthv2/README_zh-CN.md">SthV2</a> (<a href="https://20bn.com/datasets/something-something/">主页</a>) (ICCV'2017)</td> |
|
|
175 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/diving48/README_zh-CN.md">Diving48</a> (<a href="http://www.svcl.ucsd.edu/projects/resound/dataset.html">主页</a>) (ECCV'2018)</td> |
|
|
176 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/jester/README_zh-CN.md">Jester</a> (<a href="https://20bn.com/datasets/jester/v1">主页</a>) (ICCV'2019)</td> |
|
|
177 |
</tr> |
|
|
178 |
<tr> |
|
|
179 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/mit/README_zh-CN.md">Moments in Time</a> (<a href="http://moments.csail.mit.edu/">主页</a>) (TPAMI'2019)</td> |
|
|
180 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/mmit/README_zh-CN.md">Multi-Moments in Time</a> (<a href="http://moments.csail.mit.edu/challenge_iccv_2019.html">主页</a>) (ArXiv'2019)</td> |
|
|
181 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/hvu/README_zh-CN.md">HVU</a> (<a href="https://github.com/holistic-video-understanding/HVU-Dataset">主页</a>) (ECCV'2020)</td> |
|
|
182 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/omnisource/README_zh-CN.md">OmniSource</a> (<a href="https://kennymckormick.github.io/omnisource/">主页</a>) (ECCV'2020)</td> |
|
|
183 |
</tr> |
|
|
184 |
<tr> |
|
|
185 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/gym/README_zh-CN.md">FineGYM</a> (<a href="https://sdolivia.github.io/FineGym/">主页</a>) (CVPR'2020)</td> |
|
|
186 |
<td></td> |
|
|
187 |
<td></td> |
|
|
188 |
<td></td> |
|
|
189 |
</tr> |
|
|
190 |
<tr> |
|
|
191 |
<td colspan="4" style="font-weight:bold;">时序动作检测数据集</td> |
|
|
192 |
</tr> |
|
|
193 |
<tr> |
|
|
194 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/thumos14/README_zh-CN.md">THUMOS14</a> (<a href="https://www.crcv.ucf.edu/THUMOS14/download.html">主页</a>) (THUMOS Challenge 2014)</td> |
|
|
195 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/activitynet/README_zh-CN.md">ActivityNet</a> (<a href="http://activity-net.org/">主页</a>) (CVPR'2015)</td> |
|
|
196 |
<td></td> |
|
|
197 |
<td></td> |
|
|
198 |
</tr> |
|
|
199 |
<tr> |
|
|
200 |
<td colspan="4" style="font-weight:bold;">时空动作检测数据集</td> |
|
|
201 |
</tr> |
|
|
202 |
<tr> |
|
|
203 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/ucf101_24/README_zh-CN.md">UCF101-24*</a> (<a href="http://www.thumos.info/download.html">主页</a>) (CRCV-IR-12-01)</td> |
|
|
204 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/jhmdb/README_zh-CN.md">JHMDB*</a> (<a href="http://jhmdb.is.tue.mpg.de/">主页</a>) (ICCV'2015)</td> |
|
|
205 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/ava/README_zh-CN.md">AVA</a> (<a href="https://research.google.com/ava/index.html">主页</a>) (CVPR'2018)</td> |
|
|
206 |
<td></td> |
|
|
207 |
</tr> |
|
|
208 |
<tr> |
|
|
209 |
<td colspan="4" style="font-weight:bold;">基于骨骼点的动作识别数据集</td> |
|
|
210 |
</tr> |
|
|
211 |
<tr> |
|
|
212 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/skeleton/README.md">PoseC3D-FineGYM</a> (<a href="https://kennymckormick.github.io/posec3d/">主页</a>) (ArXiv'2021)</td> |
|
|
213 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/skeleton/README.md">PoseC3D-NTURGB+D</a> (<a href="https://kennymckormick.github.io/posec3d/">主页</a>) (ArXiv'2021)</td> |
|
|
214 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/skeleton/README.md">PoseC3D-UCF101</a> (<a href="https://kennymckormick.github.io/posec3d/">主页</a>) (ArXiv'2021)</td> |
|
|
215 |
<td><a href="https://github.com/open-mmlab/mmaction2/blob/master/tools/data/skeleton/README.md">PoseC3D-HMDB51</a> (<a href="https://kennymckormick.github.io/posec3d/">主页</a>) (ArXiv'2021)</td> |
|
|
216 |
</tr> |
|
|
217 |
</table> |
|
|
218 |
|
|
|
219 |
标记 * 代表对应数据集并未被完全支持,但提供相应的数据准备步骤。整体的概况也可也在 [**数据集**](https://mmaction2.readthedocs.io/en/latest/supported_datasets.html) 页面中查看 |
|
|
220 |
|
|
|
221 |
## 基准测试 |
|
|
222 |
|
|
|
223 |
为了验证 MMAction2 框架的高精度和高效率,开发成员将其与当前其他主流框架进行速度对比。更多详情可见 [基准测试](/docs_zh_CN/benchmark.md) |
|
|
224 |
|
|
|
225 |
## 数据集准备 |
|
|
226 |
|
|
|
227 |
请参考 [数据准备](/docs_zh_CN/data_preparation.md) 了解数据集准备概况。所有支持的数据集都列于 [数据集清单](/docs_zh_CN/supported_datasets.md) 中 |
|
|
228 |
|
|
|
229 |
## 常见问题 |
|
|
230 |
|
|
|
231 |
请参考 [FAQ](/docs_zh_CN/faq.md) 了解其他用户的常见问题 |
|
|
232 |
|
|
|
233 |
## 相关工作 |
|
|
234 |
|
|
|
235 |
目前有许多研究工作或工程项目基于 MMAction2 搭建,例如: |
|
|
236 |
|
|
|
237 |
- Evidential Deep Learning for Open Set Action Recognition, ICCV 2021 **Oral**. [[论文]](https://arxiv.org/abs/2107.10161)[[代码]](https://github.com/Cogito2012/DEAR) |
|
|
238 |
- Rethinking Self-supervised Correspondence Learning: A Video Frame-level Similarity Perspective, ICCV 2021 **Oral**. [[论文]](https://arxiv.org/abs/2103.17263)[[代码]](https://github.com/xvjiarui/VFS) |
|
|
239 |
- Video Swin Transformer. [[论文]](https://arxiv.org/abs/2106.13230)[[代码]](https://github.com/SwinTransformer/Video-Swin-Transformer) |
|
|
240 |
|
|
|
241 |
更多详情可见 [相关工作](docs/projects.md) |
|
|
242 |
|
|
|
243 |
## 许可 |
|
|
244 |
|
|
|
245 |
该项目开源自 [Apache 2.0 license](/LICENSE) |
|
|
246 |
|
|
|
247 |
## 引用 |
|
|
248 |
|
|
|
249 |
如果你觉得 MMAction2 对你的研究有所帮助,可以考虑引用它: |
|
|
250 |
|
|
|
251 |
```BibTeX |
|
|
252 |
@misc{2020mmaction2, |
|
|
253 |
title={OpenMMLab's Next Generation Video Understanding Toolbox and Benchmark}, |
|
|
254 |
author={MMAction2 Contributors}, |
|
|
255 |
howpublished = {\url{https://github.com/open-mmlab/mmaction2}}, |
|
|
256 |
year={2020} |
|
|
257 |
} |
|
|
258 |
``` |
|
|
259 |
|
|
|
260 |
## 参与贡献 |
|
|
261 |
|
|
|
262 |
我们非常欢迎用户对于 MMAction2 做出的任何贡献,可以参考 [贡献指南](/.github/CONTRIBUTING.md) 文件了解更多细节 |
|
|
263 |
|
|
|
264 |
## 致谢 |
|
|
265 |
|
|
|
266 |
MMAction2 是一款由不同学校和公司共同贡献的开源项目。我们感谢所有为项目提供算法复现和新功能支持的贡献者,以及提供宝贵反馈的用户。 |
|
|
267 |
我们希望该工具箱和基准测试可以为社区提供灵活的代码工具,供用户复现现有算法并开发自己的新模型,从而不断为开源社区提供贡献。 |
|
|
268 |
|
|
|
269 |
## OpenMMLab 的其他项目 |
|
|
270 |
|
|
|
271 |
- [MMCV](https://github.com/open-mmlab/mmcv): OpenMMLab 计算机视觉基础库 |
|
|
272 |
- [MIM](https://github.com/open-mmlab/mim): MIM 是 OpenMMlab 项目、算法、模型的统一入口 |
|
|
273 |
- [MMAction2](https://github.com/open-mmlab/mmaction2): OpenMMLab 新一代视频理解工具箱与测试基准 |
|
|
274 |
- [MMClassification](https://github.com/open-mmlab/mmclassification): OpenMMLab 图像分类工具箱与测试基准 |
|
|
275 |
- [MMDeploy](https://github.com/open-mmlab/mmdeploy): OpenMMLab 模型部署框架 |
|
|
276 |
- [MMDetection](https://github.com/open-mmlab/mmdetection): OpenMMLab 检测工具箱与测试基准 |
|
|
277 |
- [MMDetection3D](https://github.com/open-mmlab/mmdetection3d): OpenMMLab 新一代通用3D目标检测平台 |
|
|
278 |
- [MMEditing](https://github.com/open-mmlab/mmediting): OpenMMLab 图像视频编辑工具箱 |
|
|
279 |
- [MMFewShot](https://github.com/open-mmlab/mmfewshot): OpenMMLab 少样本学习代码库 |
|
|
280 |
- [MMFlow](https://github.com/open-mmlab/mmflow): OpenMMLab 光流估计工具箱 |
|
|
281 |
- [MMGeneration](https://github.com/open-mmlab/mmgeneration): OpenMMLab 图片视频生成模型工具箱 |
|
|
282 |
- [MMHuman3D](https://github.com/open-mmlab/mmhuman3d): OpenMMLab 人体姿态和形状估计工具箱 |
|
|
283 |
- [MMOCR](https://github.com/open-mmlab/mmocr): OpenMMLab 全流程文字检测识别理解工具包 |
|
|
284 |
- [MMPose](https://github.com/open-mmlab/mmpose): OpenMMLab 姿态估计工具箱与测试基准 |
|
|
285 |
- [MMRazor](https://github.com/open-mmlab/mmrazor): OpenMMLab 模型压缩工具箱与测试基准 |
|
|
286 |
- [MMSegmentation](https://github.com/open-mmlab/mmsegmentation): OpenMMLab 语义分割工具箱与测试基准 |
|
|
287 |
- [MMSelfSup](https://github.com/open-mmlab/mmselfsup): OpenMMLab 自监督学习工具箱与测试基准 |
|
|
288 |
- [MMTracking](https://github.com/open-mmlab/mmtracking): OpenMMLab 一体化视频目标感知平台 |
|
|
289 |
|
|
|
290 |
## 欢迎加入 OpenMMLab 社区 |
|
|
291 |
|
|
|
292 |
扫描下方的二维码可关注 OpenMMLab 团队的 [知乎官方账号](https://www.zhihu.com/people/openmmlab),加入 OpenMMLab 团队的 [官方交流 QQ 群](https://jq.qq.com/?_wv=1027&k=aCvMxdr3) |
|
|
293 |
|
|
|
294 |
<div align="center"> |
|
|
295 |
<img src="https://github.com/open-mmlab/mmaction2/raw/master/resources/zhihu_qrcode.jpg" height="400" /> <img src="https://github.com/open-mmlab/mmaction2/raw/master/resources/qq_group_qrcode.jpg" height="400" /> |
|
|
296 |
</div> |
|
|
297 |
|
|
|
298 |
我们会在 OpenMMLab 社区为大家 |
|
|
299 |
|
|
|
300 |
- 📢 分享 AI 框架的前沿核心技术 |
|
|
301 |
- 💻 解读 PyTorch 常用模块源码 |
|
|
302 |
- 📰 发布 OpenMMLab 的相关新闻 |
|
|
303 |
- 🚀 介绍 OpenMMLab 开发的前沿算法 |
|
|
304 |
- 🏃 获取更高效的问题答疑和意见反馈 |
|
|
305 |
- 🔥 提供与各行各业开发者充分交流的平台 |
|
|
306 |
|
|
|
307 |
干货满满 📘,等你来撩 💗,OpenMMLab 社区期待您的加入 👬 |