说明:本博文假设你已经做好了自己的数据集,该数据集格式和VOC2007相同。下面是训练前的一些修改。
(做数据集的过程可以看)
Faster-RCNN源码下载地址:
Matlab版本:https://github.com/ShaoqingRen/faster_rcnn
Python版本:https://github.com/rbgirshick/py-faster-rcnn
本文用到的是Python版本,在Linux下运行。
Matlab版本的训练过程:
准备工作:
1.配置caffe
这个不多说,网上教程很多。
2.其他的注意事项
这里说的挺详细了,认真看看吧。地址:https://github.com/rbgirshick/py-faster-rcnn(主要内容如下)
下面大概翻译一下上面网址的内容吧。
(1)安装cython, python-OpenCV
,easydict
[plain] view plain copy
1. pip install cython
2. pip install easydict
3. apt-get install python-opencv
(2)下载py-faster-rcnn
[plain] view plain copy
1. # Make sure to clone with --recursive
2. git clone --recursive https://github.com/rbgirshick/py-faster-rcnn.git
如图:
(3)进入py-faster-rcnn/lib
执行make
如图:
(4)进入py-faster-rcnn\caffe-fast-rcnn
执行 cp Makefile.config.example Makefile.config
然后,配置Makefile.config文件,可参考我的配置:Makefile.config文件
配置好Makefile.config文件后,执行:
[plain] view plain copy
1. make -j8 && make pycaffe
如图:
(5)下载VOC2007数据集
提供一个百度云地址:http://pan.baidu.com/s/1mhMKKw4
解压,然后,将该数据集放在py-faster-rcnn\data下,用你的数据集替换VOC2007数据集。(替换Annotations,ImageSets和JPEGImages)
(用你的Annotations,ImagesSets和JPEGImages替换py-faster-rcnn\data\VOCdevkit2007\VOC2007中对应文件夹)
(6)下载ImageNet数据集下预训练得到的模型参数(用来初始化)
提供一个百度云地址:http://pan.baidu.com/s/1hsxx8OW
解压,然后将该文件放在py-faster-rcnn\data下
下面是训练前的一些修改。
1.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage1_fast_rcnn_train.pt修改
[plain] view plain copy
1. layer {
2. name: 'data'
3. type: 'Python'
4. top: 'data'
5. top: 'rois'
6. top: 'labels'
7. top: 'bbox_targets'
8. top: 'bbox_inside_weights'
9. top: 'bbox_outside_weights'
10. python_param {
11. module: 'roi_data_layer.layer'
12. layer: 'RoIDataLayer'
13. param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1
14. }
15. }
[plain] view plain copy
1. layer {
2. name: "cls_score"
3. type: "InnerProduct"
4. bottom: "fc7"
5. top: "cls_score"
6. param { lr_mult: 1.0 }
7. param { lr_mult: 2.0 }
8. inner_product_param {
9. num_output: 16 #按训练集类别改,该值为类别数+1
10. weight_filler {
11. type: "gaussian"
12. std: 0.01
13. }
14. bias_filler {
15. type: "constant"
16. value: 0
17. }
18. }
19. }
[plain] view plain copy
1. layer {
2. name: "bbox_pred"
3. type: "InnerProduct"
4. bottom: "fc7"
5. top: "bbox_pred"
6. param { lr_mult: 1.0 }
7. param { lr_mult: 2.0 }
8. inner_product_param {
9. num_output: 64 #按训练集类别改,该值为(类别数+1)*4
10. weight_filler {
11. type: "gaussian"
12. std: 0.001
13. }
14. bias_filler {
15. type: "constant"
16. value: 0
17. }
18. }
19. }
2.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage1_rpn_train.pt修改
[plain] view plain copy
1. layer {
2. name: 'input-data'
3. type: 'Python'
4. top: 'data'
5. top: 'im_info'
6. top: 'gt_boxes'
7. python_param {
8. module: 'roi_data_layer.layer'
9. layer: 'RoIDataLayer'
10. param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1
11. }
12. }
3.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage2_fast_rcnn_train.pt修改
[plain] view plain copy
1. layer {
2. name: 'data'
3. type: 'Python'
4. top: 'data'
5. top: 'rois'
6. top: 'labels'
7. top: 'bbox_targets'
8. top: 'bbox_inside_weights'
9. top: 'bbox_outside_weights'
10. python_param {
11. module: 'roi_data_layer.layer'
12. layer: 'RoIDataLayer'
13. param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1
14. }
15. }
[plain] view plain copy
1. layer {
2. name: "cls_score"
3. type: "InnerProduct"
4. bottom: "fc7"
5. top: "cls_score"
6. param { lr_mult: 1.0 }
7. param { lr_mult: 2.0 }
8. inner_product_param {
9. num_output: 16 #按训练集类别改,该值为类别数+1
10. weight_filler {
11. type: "gaussian"
12. std: 0.01
13. }
14. bias_filler {
15. type: "constant"
16. value: 0
17. }
18. }
19. }
[plain] view plain copy
1. layer {
2. name: "bbox_pred"
3. type: "InnerProduct"
4. bottom: "fc7"
5. top: "bbox_pred"
6. param { lr_mult: 1.0 }
7. param { lr_mult: 2.0 }
8. inner_product_param {
9. num_output: 64 #按训练集类别改,该值为(类别数+1)*4
10. weight_filler {
11. type: "gaussian"
12. std: 0.001
13. }
14. bias_filler {
15. type: "constant"
16. value: 0
17. }
18. }
19. }
4.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/stage2_rpn_train.pt修改
[plain] view plain copy
1. layer {
2. name: 'input-data'
3. type: 'Python'
4. top: 'data'
5. top: 'im_info'
6. top: 'gt_boxes'
7. python_param {
8. module: 'roi_data_layer.layer'
9. layer: 'RoIDataLayer'
10. param_str: "'num_classes': 16" #按训练集类别改,该值为类别数+1
11. }
12. }
5.py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt/faster_rcnn_test.pt修改
[plain] view plain copy
1. layer {
2. name: "cls_score"
3. type: "InnerProduct"
4. bottom: "fc7"
5. top: "cls_score"
6. inner_product_param {
7. num_output: 16 #按训练集类别改,该值为类别数+1
8. }
9. }
[plain] view plain copy
1. layer {
2. name: "bbox_pred"
3. type: "InnerProduct"
4. bottom: "fc7"
5. top: "bbox_pred"
6. inner_product_param {
7. num_output: 64 #按训练集类别改,该值为(类别数+1)*4
8. }
9. }
6.py-faster-rcnn/lib/datasets/pascal_voc.py修改
(1)
[plain] view plain copy
1. class pascal_voc(imdb):
2. def __init__(self, image_set, year, devkit_path=None):
3. imdb.__init__(self, 'voc_' + year + '_' + image_set)
4. self._year = year
5. self._image_set = image_set
6. self._devkit_path = self._get_default_path() if devkit_path is None \
7. else devkit_path
8. self._data_path = os.path.join(self._devkit_path, 'VOC' + self._year)
9. self._classes = ('__background__', # always index 0
10. '你的标签1','你的标签2',你的标签3','你的标签4'
11. )
上面要改的地方是
修改训练集文件夹:
[plain] view plain copy
- self._data_path = os.path.join(self._devkit_path, 'VOC'+self._year)
用你的数据集直接替换原来VOC2007内的Annotations,ImageSets和JPEGImages即可,以免出现各种错误。
修改标签:
[plain] view plain copy
1. self._classes = ('__background__', # always index 0
2. '你的标签1','你的标签2','你的标签3','你的标签4'
3. )
修改成你的数据集的标签就行。
(2)
[html] view plain copy
1. cls = self._class_to_ind[obj.find('name').text.lower().strip()]
这里把标签转成小写,如果你的标签含有大写字母,可能会出现KeyError的错误,所以建议标签用小写字母。
(去掉lower应该也行)
建议训练的标签还是用小写的字母,如果最终需要用大写字母或中文显示标签,可参考:
7.py-faster-rcnn/lib/datasets/imdb.py修改
该文件的append_flipped_images(self)函数修改为:
[plain] view plain copy
1. def append_flipped_images(self):
2. num_images = self.num_images
3. widths = [PIL.Image.open(self.image_path_at(i)).size[0]
4. for i in xrange(num_images)]
5. for i in xrange(num_images):
6. boxes = self.roidb[i]['boxes'].copy()
7. oldx1 = boxes[:, 0].copy()
8. oldx2 = boxes[:, 2].copy()
9. boxes[:, 0] = widths[i] - oldx2 - 1
10. print boxes[:, 0]
11. boxes[:, 2] = widths[i] - oldx1 - 1
12. print boxes[:, 0]
13. assert (boxes[:, 2] >= boxes[:, 0]).all()
14. entry = {'boxes' : boxes,
15. 'gt_overlaps' : self.roidb[i]['gt_overlaps'],
16. 'gt_classes' : self.roidb[i]['gt_classes'],
17. 'flipped' : True}
18. self.roidb.append(entry)
19. self._image_index = self._image_index * 2
!!!为防止与之前的模型搞混,训练前把output文件夹删除(或改个其他名),还要把py-faster-rcnn/data/cache中的文件和
py-faster-rcnn/data/VOCdevkit2007/annotations_cache中的文件删除(如果有的话)。
至于学习率等之类的设置,可在py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt中的solve文件设置,迭代次数可在py-faster-rcnn\tools的train_faster_rcnn_alt_opt.py中修改:
[plain] view plain copy
1. max_iters = [80000, 40000, 80000, 40000]
分别为4个阶段(rpn第1阶段,fast rcnn第1阶段,rpn第2阶段,fast rcnn第2阶段)的迭代次数。可改成你希望的迭代次数。
如果改了这些数值,最好把py-faster-rcnn/models/pascal_voc/ZF/faster_rcnn_alt_opt里对应的solver文件(有4个)也修改,stepsize小于上面修改的数值。
8.开始训练
进入py-faster-rcnn,执行:
[plain] view plain copy
1. ./experiments/scripts/faster_rcnn_alt_opt.sh 0 ZF pascal_voc
这样,就开始训练了。
9.测试
将训练得到的py-faster-rcnn\output\faster_rcnn_alt_opt\***_trainval中ZF的caffemodel拷贝至py-faster-rcnn\data\faster_rcnn_models(如果没有这个文件夹,就新建一个),然后,修改:
py-faster-rcnn\tools\demo.py,主要修改:
[plain] view plain copy
1. CLASSES = ('__background__',
2. '你的标签1', '你的标签2', '你的标签3', '你的标签4')
改成你的数据集标签;
[plain] view plain copy
1. NETS = {'vgg16': ('VGG16',
2. 'VGG16_faster_rcnn_final.caffemodel'),
3. 'zf': ('ZF',
4. 'ZF_faster_rcnn_final.caffemodel')}
上面ZF的caffemodel改成你的caffemodel。
[plain] view plain copy
1. im_names = ['1559.jpg','1564.jpg']
改成你的测试图片。(测试图片放在py-faster-rcnn\data\demo中)
10.结果
在py-faster-rcnn下,
执行:
[plain] view plain copy
1. ./tools/demo.py --net zf
或者将默认的模型改为zf:
[html] view plain copy
1. parser.add_argument('--net', dest='demo_net', help='Network to use [vgg16]',
2. choices=NETS.keys(), default='vgg16')
修改:
[html] view plain copy
- default='zf'
执行:
[plain] view plain copy
- ./tools/demo.py