|
a |
|
b/README_zh-CN.md |
|
|
1 |
<div align="center"> |
|
|
2 |
<img src="resources/mmseg-logo.png" width="600"/> |
|
|
3 |
</div> |
|
|
4 |
<br /> |
|
|
5 |
|
|
|
6 |
[](https://pypi.org/project/mmsegmentation/) |
|
|
7 |
[](https://pypi.org/project/mmsegmentation) |
|
|
8 |
[](https://mmsegmentation.readthedocs.io/zh_CN/latest/) |
|
|
9 |
[](https://github.com/open-mmlab/mmsegmentation/actions) |
|
|
10 |
[](https://codecov.io/gh/open-mmlab/mmsegmentation) |
|
|
11 |
[](https://github.com/open-mmlab/mmsegmentation/blob/master/LICENSE) |
|
|
12 |
[](https://github.com/open-mmlab/mmsegmentation/issues) |
|
|
13 |
[](https://github.com/open-mmlab/mmsegmentation/issues) |
|
|
14 |
|
|
|
15 |
文档: https://mmsegmentation.readthedocs.io/zh_CN/latest |
|
|
16 |
|
|
|
17 |
[English](README.md) | 简体中文 |
|
|
18 |
|
|
|
19 |
## 简介 |
|
|
20 |
|
|
|
21 |
MMSegmentation 是一个基于 PyTorch 的语义分割开源工具箱。它是 OpenMMLab 项目的一部分。 |
|
|
22 |
|
|
|
23 |
主分支代码目前支持 PyTorch 1.5 以上的版本。 |
|
|
24 |
|
|
|
25 |
 |
|
|
26 |
|
|
|
27 |
### 主要特性 |
|
|
28 |
|
|
|
29 |
- **统一的基准平台** |
|
|
30 |
|
|
|
31 |
我们将各种各样的语义分割算法集成到了一个统一的工具箱,进行基准测试。 |
|
|
32 |
|
|
|
33 |
- **模块化设计** |
|
|
34 |
|
|
|
35 |
MMSegmentation 将分割框架解耦成不同的模块组件,通过组合不同的模块组件,用户可以便捷地构建自定义的分割模型。 |
|
|
36 |
|
|
|
37 |
- **丰富的即插即用的算法和模型** |
|
|
38 |
|
|
|
39 |
MMSegmentation 支持了众多主流的和最新的检测算法,例如 PSPNet,DeepLabV3,PSANet,DeepLabV3+ 等. |
|
|
40 |
|
|
|
41 |
- **速度快** |
|
|
42 |
|
|
|
43 |
训练速度比其他语义分割代码库更快或者相当。 |
|
|
44 |
|
|
|
45 |
## 开源许可证 |
|
|
46 |
|
|
|
47 |
该项目采用 [Apache 2.0 开源许可证](LICENSE)。 |
|
|
48 |
|
|
|
49 |
## 更新日志 |
|
|
50 |
|
|
|
51 |
最新的月度版本 v0.20.2 在 2021.12.15 发布。 |
|
|
52 |
如果想了解更多版本更新细节和历史信息,请阅读[更新日志](docs/changelog.md)。 |
|
|
53 |
|
|
|
54 |
## 基准测试和模型库 |
|
|
55 |
|
|
|
56 |
测试结果和模型可以在[模型库](docs_zh-CN/model_zoo.md)中找到。 |
|
|
57 |
|
|
|
58 |
已支持的骨干网络: |
|
|
59 |
|
|
|
60 |
- [x] ResNet (CVPR'2016) |
|
|
61 |
- [x] ResNeXt (CVPR'2017) |
|
|
62 |
- [x] [HRNet (CVPR'2019)](configs/hrnet) |
|
|
63 |
- [x] [ResNeSt (ArXiv'2020)](configs/resnest) |
|
|
64 |
- [x] [MobileNetV2 (CVPR'2018)](configs/mobilenet_v2) |
|
|
65 |
- [x] [MobileNetV3 (ICCV'2019)](configs/mobilenet_v3) |
|
|
66 |
- [x] [Vision Transformer (ICLR'2021)](configs/vit) |
|
|
67 |
- [x] [Swin Transformer (ICCV'2021)](configs/swin) |
|
|
68 |
- [x] [Twins (NeurIPS'2021)](configs/twins) |
|
|
69 |
|
|
|
70 |
已支持的算法: |
|
|
71 |
|
|
|
72 |
- [x] [FCN (CVPR'2015/TPAMI'2017)](configs/fcn) |
|
|
73 |
- [x] [ERFNet (T-ITS'2017)](configs/erfnet) |
|
|
74 |
- [x] [UNet (MICCAI'2016/Nat. Methods'2019)](configs/unet) |
|
|
75 |
- [x] [PSPNet (CVPR'2017)](configs/pspnet) |
|
|
76 |
- [x] [DeepLabV3 (ArXiv'2017)](configs/deeplabv3) |
|
|
77 |
- [x] [BiSeNetV1 (ECCV'2018)](configs/bisenetv1) |
|
|
78 |
- [x] [PSANet (ECCV'2018)](configs/psanet) |
|
|
79 |
- [x] [DeepLabV3+ (CVPR'2018)](configs/deeplabv3plus) |
|
|
80 |
- [x] [UPerNet (ECCV'2018)](configs/upernet) |
|
|
81 |
- [x] [ICNet (ECCV'2018)](configs/icnet) |
|
|
82 |
- [x] [NonLocal Net (CVPR'2018)](configs/nonlocal_net) |
|
|
83 |
- [x] [EncNet (CVPR'2018)](configs/encnet) |
|
|
84 |
- [x] [Semantic FPN (CVPR'2019)](configs/sem_fpn) |
|
|
85 |
- [x] [DANet (CVPR'2019)](configs/danet) |
|
|
86 |
- [x] [APCNet (CVPR'2019)](configs/apcnet) |
|
|
87 |
- [x] [EMANet (ICCV'2019)](configs/emanet) |
|
|
88 |
- [x] [CCNet (ICCV'2019)](configs/ccnet) |
|
|
89 |
- [x] [DMNet (ICCV'2019)](configs/dmnet) |
|
|
90 |
- [x] [ANN (ICCV'2019)](configs/ann) |
|
|
91 |
- [x] [GCNet (ICCVW'2019/TPAMI'2020)](configs/gcnet) |
|
|
92 |
- [x] [FastFCN (ArXiv'2019)](configs/fastfcn) |
|
|
93 |
- [x] [Fast-SCNN (ArXiv'2019)](configs/fastscnn) |
|
|
94 |
- [x] [ISANet (ArXiv'2019/IJCV'2021)](configs/isanet) |
|
|
95 |
- [x] [OCRNet (ECCV'2020)](configs/ocrnet) |
|
|
96 |
- [x] [DNLNet (ECCV'2020)](configs/dnlnet) |
|
|
97 |
- [x] [PointRend (CVPR'2020)](configs/point_rend) |
|
|
98 |
- [x] [CGNet (TIP'2020)](configs/cgnet) |
|
|
99 |
- [x] [BiSeNetV2 (IJCV'2021)](configs/bisenetv2) |
|
|
100 |
- [x] [STDC (CVPR'2021)](configs/stdc) |
|
|
101 |
- [x] [SETR (CVPR'2021)](configs/setr) |
|
|
102 |
- [x] [DPT (ArXiv'2021)](configs/dpt) |
|
|
103 |
- [x] [SegFormer (NeurIPS'2021)](configs/segformer) |
|
|
104 |
|
|
|
105 |
已支持的数据集: |
|
|
106 |
|
|
|
107 |
- [x] [Cityscapes](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#cityscapes) |
|
|
108 |
- [x] [PASCAL VOC](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#pascal-voc) |
|
|
109 |
- [x] [ADE20K](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#ade20k) |
|
|
110 |
- [x] [Pascal Context](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#pascal-context) |
|
|
111 |
- [x] [COCO-Stuff 10k](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#coco-stuff-10k) |
|
|
112 |
- [x] [COCO-Stuff 164k](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#coco-stuff-164k) |
|
|
113 |
- [x] [CHASE_DB1](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#chase-db1) |
|
|
114 |
- [x] [DRIVE](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#drive) |
|
|
115 |
- [x] [HRF](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#hrf) |
|
|
116 |
- [x] [STARE](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#stare) |
|
|
117 |
- [x] [Dark Zurich](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#dark-zurich) |
|
|
118 |
- [x] [Nighttime Driving](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#nighttime-driving) |
|
|
119 |
- [x] [LoveDA](https://github.com/open-mmlab/mmsegmentation/blob/master/docs_zh-CN/dataset_prepare.md#loveda) |
|
|
120 |
|
|
|
121 |
## 安装 |
|
|
122 |
|
|
|
123 |
请参考[快速入门文档](docs_zh-CN/get_started.md#installation)进行安装,参考[数据集准备](docs_zh-CN/dataset_prepare.md)处理数据。 |
|
|
124 |
|
|
|
125 |
## 快速入门 |
|
|
126 |
|
|
|
127 |
请参考[训练教程](docs_zh-CN/train.md)和[测试教程](docs_zh-CN/inference.md)学习 MMSegmentation 的基本使用。 |
|
|
128 |
我们也提供了一些进阶教程,内容覆盖了[增加自定义数据集](docs_zh-CN/tutorials/customize_datasets.md),[设计新的数据预处理流程](docs_zh-CN/tutorials/data_pipeline.md),[增加自定义模型](docs_zh-CN/tutorials/customize_models.md),[增加自定义的运行时配置](docs_zh-CN/tutorials/customize_runtime.md)。 |
|
|
129 |
除此之外,我们也提供了很多实用的[训练技巧说明](docs_zh-CN/tutorials/training_tricks.md)和模型部署相关的[有用的工具](docs_zh-CN/useful_tools.md)。 |
|
|
130 |
|
|
|
131 |
同时,我们提供了 Colab 教程。你可以在[这里](demo/MMSegmentation_Tutorial.ipynb)浏览教程,或者直接在 Colab 上[运行](https://colab.research.google.com/github/open-mmlab/mmsegmentation/blob/master/demo/MMSegmentation_Tutorial.ipynb)。 |
|
|
132 |
|
|
|
133 |
## 引用 |
|
|
134 |
|
|
|
135 |
如果你觉得本项目对你的研究工作有所帮助,请参考如下 bibtex 引用 MMSegmentation。 |
|
|
136 |
|
|
|
137 |
```latex |
|
|
138 |
@misc{mmseg2020, |
|
|
139 |
title={{MMSegmentation}: OpenMMLab Semantic Segmentation Toolbox and Benchmark}, |
|
|
140 |
author={MMSegmentation Contributors}, |
|
|
141 |
howpublished = {\url{https://github.com/open-mmlab/mmsegmentation}}, |
|
|
142 |
year={2020} |
|
|
143 |
} |
|
|
144 |
``` |
|
|
145 |
|
|
|
146 |
## 贡献指南 |
|
|
147 |
|
|
|
148 |
我们感谢所有的贡献者为改进和提升 MMSegmentation 所作出的努力。请参考[贡献指南](.github/CONTRIBUTING.md)来了解参与项目贡献的相关指引。 |
|
|
149 |
|
|
|
150 |
## 致谢 |
|
|
151 |
|
|
|
152 |
MMSegmentation 是一个由来自不同高校和企业的研发人员共同参与贡献的开源项目。我们感谢所有为项目提供算法复现和新功能支持的贡献者,以及提供宝贵反馈的用户。 我们希望这个工具箱和基准测试可以为社区提供灵活的代码工具,供用户复现已有算法并开发自己的新模型,从而不断为开源社区提供贡献。 |
|
|
153 |
|
|
|
154 |
## OpenMMLab 的其他项目 |
|
|
155 |
|
|
|
156 |
- [MMCV](https://github.com/open-mmlab/mmcv): OpenMMLab 计算机视觉基础库 |
|
|
157 |
- [MMClassification](https://github.com/open-mmlab/mmclassification): OpenMMLab 图像分类工具箱 |
|
|
158 |
- [MMDetection](https://github.com/open-mmlab/mmdetection): OpenMMLab 目标检测工具箱 |
|
|
159 |
- [MMDetection3D](https://github.com/open-mmlab/mmdetection3d): OpenMMLab 新一代通用 3D 目标检测平台 |
|
|
160 |
- [MMSegmentation](https://github.com/open-mmlab/mmsegmentation): OpenMMLab 语义分割工具箱 |
|
|
161 |
- [MMAction2](https://github.com/open-mmlab/mmaction2): OpenMMLab 新一代视频理解工具箱 |
|
|
162 |
- [MMTracking](https://github.com/open-mmlab/mmtracking): OpenMMLab 一体化视频目标感知平台 |
|
|
163 |
- [MMPose](https://github.com/open-mmlab/mmpose): OpenMMLab 姿态估计工具箱 |
|
|
164 |
- [MMEditing](https://github.com/open-mmlab/mmediting): OpenMMLab 图像视频编辑工具箱 |
|
|
165 |
- [MMOCR](https://github.com/open-mmlab/mmocr): OpenMMLab 全流程文字检测识别理解工具包 |
|
|
166 |
- [MMGeneration](https://github.com/open-mmlab/mmgeneration): OpenMMLab 生成模型工具箱 |
|
|
167 |
- [MMFlow](https://github.com/open-mmlab/mmflow): OpenMMLab 光流估计工具箱与测试基准 |
|
|
168 |
- [MMFewShot](https://github.com/open-mmlab/mmfewshot): OpenMMLab 少样本学习工具箱与测试基准 |
|
|
169 |
- [MMHuman3D](https://github.com/open-mmlab/mmhuman3d): OpenMMLab 人体参数化模型工具箱与测试基准 |
|
|
170 |
|
|
|
171 |
## 欢迎加入 OpenMMLab 社区 |
|
|
172 |
|
|
|
173 |
扫描下方的二维码可关注 OpenMMLab 团队的 [知乎官方账号](https://www.zhihu.com/people/openmmlab),加入 [OpenMMLab 团队](https://jq.qq.com/?_wv=1027&k=aCvMxdr3) 以及 [MMSegmentation](https://jq.qq.com/?_wv=1027&k=ukevz6Ie) 的 QQ 群。 |
|
|
174 |
|
|
|
175 |
<div align="center"> |
|
|
176 |
<img src="docs_zh-CN/imgs/zhihu_qrcode.jpg" height="400" /> <img src="docs_zh-CN/imgs/qq_group_qrcode.jpg" height="400" /> <img src="docs_zh-CN/imgs/seggroup_qrcode.jpg" height="400" /> |
|
|
177 |
</div> |
|
|
178 |
|
|
|
179 |
我们会在 OpenMMLab 社区为大家 |
|
|
180 |
|
|
|
181 |
- 📢 分享 AI 框架的前沿核心技术 |
|
|
182 |
- 💻 解读 PyTorch 常用模块源码 |
|
|
183 |
- 📰 发布 OpenMMLab 的相关新闻 |
|
|
184 |
- 🚀 介绍 OpenMMLab 开发的前沿算法 |
|
|
185 |
- 🏃 获取更高效的问题答疑和意见反馈 |
|
|
186 |
- 🔥 提供与各行各业开发者充分交流的平台 |
|
|
187 |
|
|
|
188 |
干货满满 📘,等你来撩 💗,OpenMMLab 社区期待您的加入 👬 |