文章目录
- argparse.ArgumentParser
- torch.set_num_threads
- os.path.dirname(os.path.realpath(__file__)) os.path.join
- torch.cuda
- Pytorch的nn.Conv2d()详解
- 批归一化BN层总结
- Pytorch nn.Relu(inplace = True)
- Pytorch nn.Sequential()
- Pytorch module.train() and module.eval()
- Python enumerate(zip())函数的用法
- Python .view()方法 permute()
- Python contiguous()
- Python optimizer.zero_grad()
- Pytorch clip_grad_norm()
- pytorch Optimizer和optimizer.step()
- cv2.namedWindow ()
- torch.cat(inputs, dim=0) 数据拼接
- RGB and BGR 格式
- torch.matmul()是tensor的乘法,输入可以是高维的。
argparse.ArgumentParser
- argparse是一个Python模块:命令行选项、参数和子命令解析器。
主要有三个步骤:
- 创建 ArgumentParser() 对象\
parser = argparse.ArgumentParser(description='Process some integers.')
description - 在参数帮助文档之前显示的文本(默认值:无)
使用 argparse 的第一步是创建一个 ArgumentParser 对象。
ArgumentParser 对象包含将命令行解析成 Python 数据类型所需的全部信息。
- 调用 add_argument() 方法添加参数
ArgumentParser.add_argument(name or flags...[, action][, nargs][, const][, default][, type][, choices][, required][, help][, metavar][, dest])
name or flags - 一个命名或者一个选项字符串的列表,例如 foo 或 -f, --foo。
default - 当参数未在命令行中出现时使用的值。
type - 命令行参数应当被转换成的类型。
help - 一个此选项作用的简单描述。
- 使用 parse_args() 解析添加的参数
args = parser.parse_args()
把parser中设置的所有"add_argument"给返回到args子类实例当中, 那么parser中增加的属性内容都会在args实例中,使用即可
torch.set_num_threads
torch.set_num_threads(int数字)
设定用于并行化CPU操作的OpenMP线程数
os.path.dirname(os.path.realpath(file)) os.path.join
os.path.realpath(__file__)
获取当前执行脚本的绝对路径。
os.path.dirname(os,path.realname(__file__))
指的是,获得你刚才所引用的模块 所在的绝对路径,__file__为内置属性。
python os.path.join() , os.path.basename() , os.path.dirname() ,os.path.split() 使用方法
torch.cuda
torch详细解答
Pytorch的nn.Conv2d()详解
nn.Conv2d
批归一化BN层总结
nn.BatchNorm2d(参数详解)
Pytorch nn.Relu(inplace = True)
nn.relu
Pytorch nn.Sequential()
pytorch系列7 -----nn.Sequential讲解
downsample = nn.Sequential(
nn.Conv2d(self.inplanes, planes * block.expansion,
kernel_size=1, stride=stride, bias=False),
nn.BatchNorm2d(planes * block.expansion),
)
这里可以理解为,建立了一个下采样模块,Sequential为一个有序的容器,神经网络模块将按照在传入构造器的顺序依次被添加到计算图中执行,同时以神经网络模块为元素的有序字典也可以作为传入参数。
Pytorch module.train() and module.eval()
- 在正常建立好模型运行程序时,module都必须先要train,所以总是在训练状态,但如果是下载好别人训练好的模型而不需要自己训练时,运行程序就应该变为eval()模式。
pytorch:关于module.train函数和module.eval函数区别分析 - train()和eval()模式的区别:
model.train() :启用 BatchNormalization 和 Dropout
model.eval() :不启用 BatchNormalization 和 Dropout
Python enumerate(zip())函数的用法
Python专题之详解enumerate和zip
Python .view()方法 permute()
在互相关中,用view方法,对输出通道进行reshape
Python–Python中的.view()方法pytorch 中的view和permute的用法
Python contiguous()
Pytorch中的contiguous理解
Python optimizer.zero_grad()
PyTorch中model.zero_grad()和optimizer.zero_grad()
Pytorch clip_grad_norm()
pytorch clip_grad_norm
pytorch Optimizer和optimizer.step()
pytorch里面的Optimizer和optimizer.step()用法
cv2.namedWindow ()
opencv中的cv2.namedWindow()函数使用opencv中namedWindow( )函数用法总结(02)
torch.cat(inputs, dim=0) 数据拼接
dim=0,列拼接 dim=1 行拼接。
torch.cat()函数的官方解释,详解以及例子
RGB and BGR 格式
什么是RGB模式与BGR模式
torch.matmul()是tensor的乘法,输入可以是高维的。
torch.matmul()用法介绍matmul torch 详解_详解torch.Tensor的4种乘法