作者:Activewaste(CSDN)
引言:
刚接触mmdetection,建议不着急看代码,可以先去把config文件夹下的py配置文件先去好好了解一下,因为,要改动或者微调、以及复现论文中的精度,基本上都在config文件夹下进行修改数据。
mmdetection源码解读,本文就直接先train.py文件下手。
train.py文件
里面主要就两个函数,parse_args()和main()。
作用:
parse_args():其实就是获取命令行参数的一个过程,从创建解析对象,到对其解析(有点拗口,但不是重点,只要知道,这个函数用来获得命令行的各个参数就行了。)
main():函数主入口,先做了一些config文件,work_dir以及log的操作(这些操作都是从命令行获得的,或者从命令行带有的文件里得到的参数等。)。
然后最主要的三个步骤就是调用build_detector()来创建模型,调用build_dataset()对数据集进行注册,然后在训练检测器train_detector()。
这里的三个函数build_detector()、build_dataset()、train_detector()我们先不讨论具体的实现。
根据我们之前看的py配置文件,以及跑通mmdetection,大致可以知道。执行train.py时,最主要的参数就是py配置文件。
博主当时跑通mmdetection时,执行训练的命令:
python tools/train.py configs/faster_rcnn_r50_fpn_1x.py
所以呢,我们就可以知道,build_detection()就是将py配置文件里的数据,加载到建立的模型中,然后根据py配置文件中的数据集路径,执行build_dataset()加载数据集模型,最后进行训练train_detector()。
ok,现在详细的来看下面代码。
# -*- coding: utf-8 -*-
from __future__ import division
import argparse
import os
from mmcv import Config
from mmdet import __version__
from mmdet.datasets import build_dataset
from mmdet.apis import (train_detector, init_dist, get_root_logger,
set_random_seed)
from mmdet.models import build_detector
import torch
def parse_args():
#argparse是python标准库里面用来处理****命令行参数****的库
#ArgumentParser()方法参数须知:一般我们只选择用description
#description=None, - help时显示的开始文字
parser = argparse.ArgumentParser(description='Train a detector')#创建一个解析对象
# add_argument向该对象中添加你要关注的命令行参数和选项
# help 可以写帮助信息
parser.add_argument('--config', help='train config file path')
parser.add_argument('--work_dir', help='the dir to save logs and models')
parser.add_argument(
'--resume_from', help='the checkpoint file to resume from')
#action 表示值赋予键的方式,这里用到的是bool类型
parser.add_argument(
'--validate',
action='store_true',
help='whether to evaluate the checkpoint during training')
# type - 指定参数类型
parser.add_argument(
'--gpus',
type=int,
default=1,
help='number of gpus to use '
'(only applicable to non-distributed training)')
parser.add_argument('--seed', type=int, default=None, help='random seed')
parser.add_argument(
'--launcher',
choices=['none', 'pytorch', 'slurm', 'mpi'],
default='none',
help='job launcher')
parser.add_argument('--local_rank', type=int, default=0)
args = parser.parse_args() #进行解析
if 'LOCAL_RANK' not in os.environ:
#os.environ[''] : 获取系统环境变量
os.environ['LOCAL_RANK'] = str(args.local_rank)
return args
def main():
args = parse_args()#获得命令行参数,实际上就是获取config配置文件
cfg = Config.fromfile(args.config)#读取配置文件
# set cudnn_benchmark
#在图片输入尺度固定时开启,可以加速,一般都是关的,只有在固定尺度的网络如SSD512中才开启
if cfg.get('cudnn_benchmark', False):
torch.backends.cudnn.benchmark = True
# update configs according to CLI args
if args.work_dir is not None:
# 创建工作目录存放训练文件,如果不键入,会自动从py配置文件中生成对应的目录,key为work_dir
cfg.work_dir = args.work_dir
if args.resume_from is not None:
# 断点继续训练的权值文件,为None就没有这一步的设置
cfg.resume_from = args.resume_from
cfg.gpus = args.gpus
# init distributed env first, since logger depends on the dist info.
if args.launcher == 'none':
distributed = False
else:
distributed = True
init_dist(args.launcher, **cfg.dist_params)
# init logger before other steps
logger = get_root_logger(cfg.log_level)
#log_level在配置文件里有这个key,value=“INFO”训练一次batch就可以看到输出这个str
logger.info('Distributed training: {}'.format(distributed))
# set random seeds 关于设置随机种子的原因,请看文末推荐文章第一篇。
if args.seed is not None:
logger.info('Set random seed to {}'.format(args.seed))
set_random_seed(args.seed)
#
# 1. build_detector()在models/builder.py里,其实就是间接调用了build()。搭建模型
#
model = build_detector(
cfg.model, train_cfg=cfg.train_cfg, test_cfg=cfg.test_cfg)
#
# 2. 将训练配置传入,其中 build_dataset()在mmdet/datasets/builder.py里实现
#
train_dataset = build_dataset(cfg.data.train)#配置文件中的data字典,里的字段
#train_dataset就是一个字典了,包含了训练时的所有参数字段。
if cfg.checkpoint_config is not None:
#save mmdet version, config file content and class names in checkpoints as meta data
#将mmdet版本,配置文件内容和检查点中的类名称保存为元数据
# 要注意的是,以前发布的模型是不存这个类别等信息的,
# 用的默认COCO或者VOC参数,所以如果用以前训练好的模型检测时会提醒warning一下,问题不大。
cfg.checkpoint_config.meta = dict(
mmdet_version=__version__,
config=cfg.text,
CLASSES=train_dataset.CLASSES)
#得到数据集的类,比如coco类啊,voc类的等,都是一个类
#都要在registry里进行注册。可在datasets文件夹下的py文件看建立模型过程。
# add an attribute for visualization convenience 添加属性以方便可视化
model.CLASSES = train_dataset.CLASSES
# model的CLASSES属性本来没有的,但是python不用提前声明,再赋值的时候自动定义变量
#
# 3. 开始训练
#
train_detector(
model,
train_dataset,
cfg, #配置文件
distributed=distributed, #分布式训练 true or flase
validate=args.validate,
logger=logger)
if __name__ == '__main__':
main()
在第86行处,cfg.model, train_cfg=cfg.train_cfg, test_cfg=cfg.test_cfg,cfg为py配置文件里的内容,配置文件是一个字典,每个字段的value值还可能又是个字典,本处就是将key为model、train_cfg、test_cfg的value传入函数build_detector中。下面分别是key为model、train_cfg、test_cfg的源代码(该配置文件为faster_rcnn_r50_fpn_1x.py)
model:
# model settings
model = dict(
type='FasterRCNN',
pretrained='torchvision://resnet50',
backbone=dict(
type='ResNet',
depth=50,
num_stages=4,
out_indices=(0, 1, 2, 3),
frozen_stages=1,
style='pytorch'),
neck=dict(
type='FPN',
in_channels=[256, 512, 1024, 2048],
out_channels=256,
num_outs=5),
rpn_head=dict(
type='RPNHead',
in_channels=256,
feat_channels=256,
anchor_scales=[8],
anchor_ratios=[0.5, 1.0, 2.0],
anchor_strides=[4, 8, 16, 32, 64],
target_means=[.0, .0, .0, .0],
target_stds=[1.0, 1.0, 1.0, 1.0],
loss_cls=dict(
type='CrossEntropyLoss', use_sigmoid=True, loss_weight=1.0),
loss_bbox=dict(type='SmoothL1Loss', beta=1.0 / 9.0, loss_weight=1.0)),
bbox_roi_extractor=dict(
type='SingleRoIExtractor',
roi_layer=dict(type='RoIAlign', out_size=7, sample_num=2),
out_channels=256,
featmap_strides=[4, 8, 16, 32]),
bbox_head=dict(
type='SharedFCBBoxHead',
num_fcs=2,
in_channels=256,
fc_out_channels=1024,
roi_feat_size=7,
num_classes=81,
target_means=[0., 0., 0., 0.],
target_stds=[0.1, 0.1, 0.2, 0.2],
reg_class_agnostic=False,
loss_cls=dict(
type='CrossEntropyLoss', use_sigmoid=False, loss_weight=1.0),
loss_bbox=dict(type='SmoothL1Loss', beta=1.0, loss_weight=1.0)))
train_cfg:
# model training and testing settings
train_cfg = dict(
rpn=dict(
assigner=dict(
type='MaxIoUAssigner',
pos_iou_thr=0.7,
neg_iou_thr=0.3,
min_pos_iou=0.3,
ignore_iof_thr=-1),
sampler=dict(
type='RandomSampler',
num=256,
pos_fraction=0.5,
neg_pos_ub=-1,
add_gt_as_proposals=False),
allowed_border=0,
pos_weight=-1,
debug=False),
rpn_proposal=dict(
nms_across_levels=False,
nms_pre=2000,
nms_post=2000,
max_num=2000,
nms_thr=0.7,
min_bbox_size=0),
rcnn=dict(
assigner=dict(
type='MaxIoUAssigner',
pos_iou_thr=0.5,
neg_iou_thr=0.5,
min_pos_iou=0.5,
ignore_iof_thr=-1),
sampler=dict(
type='RandomSampler',
num=512,
pos_fraction=0.25,
neg_pos_ub=-1,
add_gt_as_proposals=True),
pos_weight=-1,
debug=False))
test_cfg:
test_cfg = dict(
rpn=dict(
nms_across_levels=False,
nms_pre=1000,
nms_post=1000,
max_num=1000,
nms_thr=0.7,
min_bbox_size=0),
rcnn=dict(
score_thr=0.05, nms=dict(type='nms', iou_thr=0.5), max_per_img=100)
# soft-nms is also supported for rcnn testing
# e.g., nms=dict(type='soft_nms', iou_thr=0.5, min_score=0.05)
)
通过上面的大量注释,相信已经大致可以知道,train.py主要的流程。接下来就是对建立模型、搭建网络、包括loss处理等部分、创建数据集模型、训练模型等的源码解读了。