YOLACT:You Only Look At CoefficienTs
🏆论文下载:paper
🏆代码下载:code
🏆论文详解:YOLACT
目录
🍂🍂1.安装环境
🍂🍂2.数据准备
🌷🌷2.1数据下载
🌷🌷2.2数据格式解析
🍂🍂3.yolact++网络
🍂🍂4.训练yolact
🌷🌷4.1预训练模型
🌷🌷4.2训练网络代码
🌷🌷4.3Pascal SBD数据集
🍂🍂5.测试yolact
🌷🌷5.1测试单张图像并可视化结果
🌷🌷5.2测试单张图像并保存结果影像文件
🌷🌷5.3批量测试文件夹内影像并将结果把保存至指定文件夹
🌷🌷5.4测试COCO数据集
🌷🌷5.5测试COCO数据集并将测试结果写入bbox_detection.json中
🌷🌷5.6COCO验证
🌷🌷5.7计算COCO验证集精度
整理不易,欢迎一键三连!!!
送你们一条美丽的--分割线--
🍂🍂1.安装环境
新建安装环境命令:
conda env create -f environment.yml
版本要求:
- python3
- pytorch 1.0.1 及以上版本
安装cython、opencv、pillow等包命令:
# Cython needs to be installed before pycocotools
pip install cython
pip install opencv-python pillow pycocotools matplotlib
🍂🍂2.数据准备
🌷🌷2.1数据下载
下载COCO2014/2017数据集,里面有label格式,可以按照这个数据格式准备自己的数据集。这里是废了很大力气的。下载数据集命令:
sh data/scripts/COCO_test.sh
下载数据界面,过程可能比较慢。。。
🌷🌷2.2数据格式解析
标注文件:instances_train2017.json
以 COCO2017\annotations_train2017\annotations\instances_train2017.json
为例。这个json文件中的信息有以下5个键值所指。
基本结构如下:
数据集标注json文件所在目录annotations_train2017,详细文件制作过程请参考【COCO】制作自己的coco格式实例分割数据集
- 可以在
data/config.py
文件中的dataset_base添加自己的数据集,比如:
my_custom_dataset = dataset_base.copy({'name': 'My Dataset','train_images': 'path_to_training_images','train_info': 'path_to_training_annotation','valid_images': 'path_to_validation_images','valid_info': 'path_to_validation_annotation','has_gt': True,'class_names': ('my_class_id_1', 'my_class_id_2', 'my_class_id_3', ...)
})
🍂🍂3.yolact++网络
使用yolact++网络,需要安装DCNv2网络
cd external/DCNv2
python setup.py build develop
🍂🍂4.训练yolact
默认在coco数据集上训练,所以需要保证第2步制作的数据集是完整的coco格式,否则无法训练。
🌷🌷4.1预训练模型
- 预训练模型应该放在
./weights目录下
- 下载
resnet101_reducedfc.pth——
here. - 下载
resnet50-19c8e357.pth
—— here. - 下载
darknet53.pth
—— here.
- 下载
- 训练命令
- 训练过程中使用ctrl+c终止训练,此时会保存一个
*_interrupt.pth
文件在当前目录. - 所有训练模型均存放在
./weights
目录下,文件名命名方式为:<config>_<epoch>_<iter>.pth
.
- 训练过程中使用ctrl+c终止训练,此时会保存一个
🌷🌷4.2训练网络代码
可以通过修改config文件来修改训练参数。
# Trains using the base config with a batch size of 8 (the default).
python train.py --config=yolact_base_config# Trains yolact_base_config with a batch_size of 5. For the 550px models, 1 batch takes up around 1.5 gigs of VRAM, so specify accordingly.
python train.py --config=yolact_base_config --batch_size=5# Resume training yolact_base with a specific weight file and start from the iteration specified in the weight file's name.
python train.py --config=yolact_base_config --resume=weights/yolact_base_10_32100.pth --start_iter=-1# Use the help option to see a description of all available command line arguments
python train.py --help
多卡训练需要再以上代码前面加上一句export CUDA_VISIBLE_DEVICES=[gpus]命令来实现多卡训练。
如果要用自己的数据集进行训练,需要修改yolact_base_config文件中的‘dataset’内容为‘my_custom_dataset’
🌷🌷4.3Pascal SBD数据集
我们也支持Pascal SBD数据集,训练步骤如下:
- 从 here下载Pascal SBD数据集 下载到的数据集压缩包为
benchmark.tgz
- 提取影像。 创建目录
./data/sbd
复制dataset/img
到./data/sbd/img
目录下 - 下载COCO格式的label信息——下载地址 here.
- 提取label信息
./data/sbd/
. - 通过
--config=yolact_resnet50_pascal_config进行PascalSBD数据集训练
工程支持通过 ./scripts/convert_sbd.py文件进行label格式转换。
为验证效果,可以从
here下载 yolact_resnet50_pascal_config格式的训练模型进行比对。
🍂🍂5.测试yolact
🌷🌷5.1测试单张图像并可视化结果
# Display qualitative results on the specified image.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --image=my_image.png
🌷🌷5.2测试单张图像并保存结果影像文件
# Process an image and save it to another file.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --image=input_image.png:output_image.png
🌷🌷5.3批量测试文件夹内影像并将结果把保存至指定文件夹
# Process a whole folder of images.
python eval.py --trained_model=weights/yolact_base_54_800000.pth --score_threshold=0.15 --top_k=15 --images=path/to/input/folder:path/to/output/folder
🌷🌷5.4测试COCO数据集
# This should get 29.92 validation mask mAP last time I checked.
python eval.py --trained_model=weights/yolact_base_54_800000.pth
🌷🌷5.5测试COCO数据集并将测试结果写入bbox_detection.json中
# Output a COCOEval json to submit to the website or to use the run_coco_eval.py script.
# This command will create './results/bbox_detections.json' and './results/mask_detections.json' for detection and instance segmentation respectively.python eval.py --trained_model=weights/yolact_base_54_800000.pth --output_coco_json
🌷🌷5.6COCO验证
# You can run COCOEval on the files created in the previous command. The performance should match my implementation in eval.py.
python run_coco_eval.py
🌷🌷5.7计算COCO验证集精度
# To output a coco json file for test-dev, make sure you have test-dev downloaded from above and go
python eval.py --trained_model=weights/yolact_base_54_800000.pth --output_coco_json --dataset=coco2017_testdev_dataset
整理不易,欢迎一键三连!!!
送你们一条美丽的--分割线--
🌷🌷🍀🍀🌾🌾🍓🍓🍂🍂🙋🙋🐸🐸🙋🙋💖💖🍌🍌🔔🔔🍉🍉🍭🍭🍋🍋🍇🍇🏆🏆📸📸⛵⛵⭐⭐🍎🍎👍👍🌷🌷