目录 assertupdate()len()range()torchvision.transforms.Compose(transforms)torchvision.transforms.ToTensor()Python split()方法Python 函数 定义 调用 参数传递 匿名函数 return 语句 变量作用域&nbs
转载 2023-08-11 15:29:57
115阅读
损失函数(一)损失函数概念损失函数是衡量模型输出与真实标签的差异在我们讨论损失函数时,经常会出现以下概念:损失函数(Loss Function)、代价函数(Cost Function)、目标函数(Objective Function)。这三者有什么区别及联系呢?Loss Function是计算一个样本的差异,代价函数是计算整个样本集的差异的平均值:目标函数是更广泛的概念,通常目标函数包括cost和
转载 2023-10-22 09:56:21
205阅读
文章目录模拟神经元单层神经网络的分类器激活函数SigmoidTanhReLULeaky ReLUMaxout神经网络结构全连接神经网络模型的表示能力与容量 深度学习的前身是神经网络。 接下来,我们开始学习神经网络算法。 模拟神经元输入信号通过突触进入神经元;神经元内部对信号进行激活处理;信号沿着神经元的轴突输出;这个轴突通过下一个神经元的突出相连接。输入信号输入数据突触模型的参数信号输入过程参
  这个包八百多,慢慢等,可我寻思着我这pytorch不是装过了么,他又给我来一遍是几个意思 下面是简单的矩阵函数from __future__ import print_function import torch x = torch.Tensor(5, 3) # 构造一个未初始化的5*3的矩阵 x = torch.rand(5, 3) # 构造一个随机初始化的矩
转载 2023-12-21 12:36:33
144阅读
初步了解torch.nnpytorch的神经网络层利用torch.nn实现,我们通过一个例子来熟悉其前向传播、反向传播的链路。首先,我们给出要优化的函数——它是一个包含2000个样本的正弦函数:import math # Create Tensors to hold input and outputs. x = torch.linspace(-math.pi, math.pi, 2000) y =
激活函数的介绍与对比神经网络与感知机激活函数阶跃函数(step_function)sigmoid函数tanh函数relu函数mish函数softmax函数函数图像对比 神经网络与感知机感知机即阈值逻辑单元,通过阈值来进行判断类别,神经网络则是多个感知机的集合,可以应用于处理更复杂的问题激活函数首先我们来介绍在神经网络网络中的激活函数,激活函数相当于在感知机中设置的阈值,不过感知机中的激活函数使用
目录nn.L1Loss:nn.NLLLoss:nn.CrossEntropyLossnn.MSELossnn.BCELoss: nn.L1Loss:这个比较简单,没有太多好说的,就是两者做差取绝对值,然后求和取平均。 输入x和目标y之间差的绝对值,要求 x 和 y 的维度要一样(可以是向量或者矩阵),得到的 loss 维度也是对应一样的。loss(x,y)=1/nnn.NLLLoss:nn.NL
转载 2023-10-17 22:10:16
0阅读
Pytorch中文文档 1、torch.index_select(input, dim, index, out=None) → Tensor>>> x = torch.randn(3, 4) >>> x 1.2045 2.4084 0.4001 1.1372 0.5596 1.5677 0.6219 -0.7954 1.3635 -1.2313
转载 2023-10-19 11:01:22
106阅读
目录一、 pytorch中的unsqueeze以及unsqueeze_操作二、nn.Softmax()三、torcn.sum()四、torch.mean()五、torch.cat()函数六、torch.flatten()函数七、 self.modules   八、named_children()和named_modules()九、nn.module十、torch.Te
转载 2023-11-03 22:00:23
135阅读
pytorch 损失函数详解及自定义方法损失函数是机器学习与深度学习解决问题中非常重要的一部分,可以说,损失函数给出了问题的定义,也就是需要优化的目标:怎么样可以认为这个模型是否够好、怎样可以认为当前训练是否有效等。pytorch框架上手十分方便,也为我们定义了很多常用的损失函数。当然,面对特殊的应用场景或实际问题,往往也需要自行定义损失函数。本文首先介绍如何自定义损失函数,再选择一些常用或经典的
转载 2023-08-08 13:56:16
66阅读
1. 二维卷积tensor(B,C,H,W)B - batchsize,例如你在使用dataloder的时候设置的batchsize是64那么此项则为64C - channel,也就是输入的矩阵的通道数,若你输入的是RGB图片,那么此项为3H - high,也就是你输入矩阵的高。W - width,也就是你输入矩阵的宽 2.一维卷积tensor(B
转载 2023-10-21 12:02:44
155阅读
本文整理了笔者在学习pytorch中经常遇到的一些函数,本篇博客会不断进行更新,并且会加上自己使用背景和使用经验。1. torch.max()函数笔者最近在学习目标检测的相关知识,无论是在计算多个bounding box之间的IOU还是确定bounding box的类别信息的时候,都会用到torch.max()函数。torch.max()可以得到一个tensor某个维度的最大值,可以的得到两个te
转载 2023-09-03 13:39:35
234阅读
PyTorch学习笔记——常用函数总结(一)torch.squeeze() 和torch.unsqueeze()——对数据的维度进行压缩或者解压(1) `torch.squeeze(input, dim=None, out=None)` **函数详解:**(2) `torch.unsqueeze(input, dim)`**函数详解:**torch.linspace() ——线性间距向量torc
pytorch常用函数与基本特性总结大全之前一直在看李宏毅老师的深度学习课程,感觉对于深度学习的许多细节得到了明显的提升 最近想尝试几个gan的代码运行,将之前忽略的一些基础操作重新整理一下,便于日后使用 张量数据类型1.查看数据类型尽量使用 tensor.type()与isinstance()来判别数据类型, python自带的type()函数只能告诉我们是tensor但不能得到具体的类型查看基
目录一、梯度下降算法(batch gradient descend)二、随机梯度下降算法(stochastic gradient descend)三、 小批量梯度下降算法(mini-batch gradient descend)一、梯度下降算法(batch gradient descend)原理:梯度下降算法是深度学习中很常见的一种方法,为了找到最优解,可以尝试利用穷举法,分治法或者贪心算法,梯度
文章目录安装Pytorchpytorch中安装jupyter两个常用函数三种方式编码的区别Dataset实战TensorBoard的使用Transforms常见的Transformstorchvision中的数据集的使用DataLoader的使用参考资料 安装Pytorch在Anaconda环境中创建pytorch环境conda create -n pytorch python=3.6激活环境
pytorch中,常见的拼接函数主要是两个,分别是:stack()cat()torch.stack()函数的意义:使用stack可以保留两个信息:[1. 序列] 和 [2. 张量矩阵] 信息,属于【扩张再拼接】的函数。形象的理解:假如数据都是二维矩阵(平面),它可以把这些一个个平面按第三维(例如:时间序列)压成一个三维的立方体,而立方体的长度就是时间序列长度。该函数常出现在自然语言处理(NLP)
一、模型的保存与加载 实现训练过程中模型的保存,以及在预训练的基础上继续训练模型 ①保存和加载整个模型# 保存和加载整个模型 torch.save(model_object, 'model.pkl') model = torch.load('model.pkl')②只保存模型中的参数# 仅保存和加载模型参数(推荐使用) torch.save(model_object.state_dict(), '
1. torch.nn.MSELoss   均方损失函数,一般损失函数都是计算一个 batch 数据总的损失,而不是计算单个样本的损失。$$L = (x - y)^{2}$$   这里 $L, x, y$ 的维度是一样的,可以是向量或者矩阵(有多个样本组合),这里的平方是针对 Tensor 的每个元素,即 $(x-y)**2$ 或 $torch.pow(x-
一、查看当前学习率print(optimizer.state_dict()['param_groups'][0]['lr'])二、学习率调整策略# 1. 等间隔调整学习率每隔step_size将学习率调整为当前lr的gamma倍,注意是step不是epoch scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamm
转载 2023-10-27 11:10:30
102阅读
  • 1
  • 2
  • 3
  • 4
  • 5