1、model.named_parameters(),迭代打印model.named_parameters()将会打印每一次迭代元素的名字和param for name, param in model.named_parameters(): print(name,param.requires_grad) param.requires_grad=False 2、model.parameters(),迭代打印model.parameters()将会打印每一次迭代元素的param而不会打印名字,这是他和named_parameters的区别,两者都可以用来改变requires_grad的属性 for param in model.parameters(): print(param.requires_grad) param.requires_grad=False 3、model.state_dict().items() 每次迭代打印该选项的话,会打印所有的name和param,但是这里的所有的param都是requires_grad=False,没有办法改变requires_grad的属性,所以改变requires_grad的属性只能通过上面的两种方式。 for name, param in model.state_dict().items(): print(name,param.requires_grad=True) 4、改变了requires_grad之后要修改optimizer的属性 optimizer = optim.SGD( filter(lambda p: p.requires_grad, model.parameters()), #只更新requires_grad=True的参数 lr=cfg.TRAIN.LR, momentum=cfg.TRAIN.MOMENTUM, weight_decay=cfg.TRAIN.WD, nesterov=cfg.TRAIN.NESTEROV ) 5、随机参数初始化 def init_weights(m): if isinstance(m, nn.Conv2d): torch.nn.init.xavier_uniform(m.weight.data) model.apply(init_weights)