1.model.train()与model.eval()的用法看别人的面经时,浏览到一题,问的就是这个。自己刚接触pytorch时套用别人的框架,会在训练开始之前写上model.trian(),在测试时写上model.eval()。然后自己写的时候也就保留了这个习惯,没有去想其中原因。在经过一番查阅之后,总结如下:如果模型中有BN层(Batch Normalization)和Dropout,需要在
转载
2024-06-17 22:23:54
361阅读
相当于numpy中resize()的功能,但是用法可能不太一样。我的理解是:把原先tensor中的数据按照行优先的顺序排成一个一维的数据(这里应该是因为要求地址是连续存储的),然后按照参数组合成其他维度的tensor。比如说是不管你原先的数据是[[[1,2,3],[4,5,6]]]还是[1,2,3,4,5,6],因为它们排成一维向量都是6个元素,所以只要view后面的参数一致,得到的结果都...
原创
2021-08-13 09:43:20
673阅读
# PyTorch中的griddata用法
在计算机视觉和深度学习中,`griddata`用于在给定的数据点之间进行插值。在PyTorch中,虽然没有直接名为`griddata`的函数,但我们可以通过其他方法实现类似的功能。本文将逐步引导你了解如何使用 PyTorch 进行插值。
## 流程概述
在本教程中,我们将采取以下步骤来实现类似于`griddata`的功能:
| 步骤 | 描述
Pytorch中的model.modules,model.named_modules,model.children,model.named_children,model.parameter,model.named_parameters.model.state_dict实例方法的区别和联系1. model.modules()2. model.named_modules()3. model.chil
转载
2024-07-12 16:33:45
99阅读
1、当经过网络模型后,输出的output tensor为[1,16]时,将其展平为一维numpy()向量,然后按照降序排列output = model.forward(img) #img为Variable类型
print(output.shape) #tensor[1,16]
#将其展平为一维向量,然后排序
output = output.data.cpu().numpy().flatten()
转载
2023-09-16 22:26:35
113阅读
pytorch中的logsumexp的使用
原创
2022-01-25 15:27:34
463阅读
pytorch中的logsumexp的使用
原创
2021-07-08 14:11:28
1903阅读
# 在PyTorch中使用Prompt的完整指南
随着深度学习的发展,Prompt在自然语言处理(NLP)中变得越来越重要。本文将教你如何在PyTorch中实现Prompt的用法。我们将分解整个过程,并提供必要的代码示例和详细解释。
## 总体流程
我们将按照以下步骤进行:
| 步骤 | 描述 |
|-------
原创
2024-10-13 06:53:12
89阅读
这些函数都在pytorch的中文手册中有,但是我把我用到的会记录下来。ps:这里面有些东西是复制了其他博主的,目的只是方便我以后查阅,如果侵权了,请联系我删除,万分抱歉。1. torch.mm()torch.mm(mat1, mat2, out=None) → Tensor#按照矩阵的乘法相乘;例如a是mXn的,bshi nXc的那么得到的就是mXc的一个矩阵
“”“
>>> m
转载
2024-01-23 16:54:23
31阅读
在本文中,我们将探讨如何解决“PyTorch中的dgal包命令”相关的问题,并通过清晰的逻辑框架逐步解析问题背景、错误现象、根因分析、解决方案、验证测试以及预防优化的内容。
首先,随着深度学习的发展,PyTorch成为了学术及工业界广泛采用的框架。dgal是一个高性能计算库,旨在加速深度学习任务中的算法实现。但在使用过程中,用户容易遇到一些特定的命令问题,导致无法顺利调用dgal中的函数。
问
0 先看看你的GPU支不支持cuda,一般来说N卡是支持的。0.1 右键任务栏,打开任务管理器,看看自己的卡的型号。0.2 打开N卡官网,滑到官网首页最下面,找找看自己的型号支不支持cuda。有些太老的机器不支持就去搞一台新机器吧嘻嘻~。1 查看你的机器支持的cuda版本。1.1 现在的机器买来鼠标右键都会有这个N卡控制面板,打开它。1.2 找到“帮助-系统信息-组件”,查看支持的cuda版本,我
# PyTorch中re包的作用
在数据科学和深度学习中,通常需要对字符串进行处理,以便从原始数据中提取有用的信息。Python中内置的`re`库提供了强大的正则表达式支持,适合进行复杂的字符串处理。本篇文章将详细介绍如何在PyTorch中结合`re`库进行有效的数据处理,并提供清晰的流程图和代码示例。
## 实现流程
以下是我们将在本文章中实现的基本流程:
| 步骤 | 描述 |
|--
闭包闭包是由函数及其相关的引用环境组合而成的实体(即:闭包=函数块+引用环境)。def outer(n): num = n def inner(): return num + 1 return innerprint(outer(3)()) # 4print(outer(5)()) # 6在这段程序中,函数 inner 是函数 outer 的内嵌函数,并且
原创
2022-03-30 14:06:55
286阅读
卷积和膨胀卷积在深度学习中,我们会碰到卷积的概念,我们知道卷积简单来理解就是累乘和累加,普通的卷积我们在此不做赘述,大家可以翻看相关书籍很好的理解。最近在做项目过程中,碰到Pytorch中使用膨胀卷积的情况,想要的输入输出是图像经过四层膨胀卷积后图像的宽高尺寸不发生变化。开始我的思路是padding='SAME'结合strides=1来实现输入输出尺寸不变,试列好多次还是有问题,报了张量错误的提示
转载
2021-04-06 16:46:57
1324阅读
书上内容太多太杂,看完容易忘记,特此记录方便日后查看,所有基础语法以代码形式呈现,代码和注释均来源与书本和案例的整理。# -*- coding: utf-8 -*-
# All codes and comments from <<深度学习框架Pytorch入门与实践>>
# Code url : https://github.com/zhouzhoujack/pytorch
转载
2024-10-11 13:27:39
55阅读
今天是Pytorch专题的第二篇,我们继续来了解一下Pytorch中Tensor的用法。上一篇文章当中我们简单介绍了一下如何创建一个Tensor,今天我们继续深入Tensor的其他用法。tensor操作size()和shape我们可以用size()函数或者直接调用tensor当中的shape属性获取一个tensor的大小,这两者是等价的,一般情况下我们用前者多一些。view我们可以通过view改变
原创
2020-12-04 20:24:19
626阅读
今天是Pytorch专题的第二篇,我们继续来了解一下Pytorch中Tensor的用法。上一篇文章当中我们简单介绍了一下如何创建一个Tensor,今天我们继续深入Tensor的其他用法。tensor操作size()和shape我们可以用size()函数或者直接调用tensor当中的shape属性获取一个tensor的大小,这两者是等价的,一般情况下我们用前者多一些。view我们可以通过view改变
原创
2021-04-30 17:35:49
374阅读
目录1.当保存和加载模型时,需要熟悉三个核心功能2..什么是状态字典:state_dict?3.保存和加载模型 3.1保存和加载推理模型3.2保存/加载完整模型4.保存和加载 Checkpoint 用于推理/继续训练5.在一个文件中保存多个模型6.使用在不同模型参数下的热启动模式7.通过设备保存/加载模型7.1 保存到 CPU、加载到 CPU7.2 保存到 GPU、加载到 GPU7.3
转载
2023-11-06 13:18:11
63阅读
如下所示:device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")model.to(device)这两行代码放在读取数据之前。mytensor = my_tensor.to(device)这行代码的意思是将所有最开始读取数据时的tensor变量copy一份到device所指定的GPU上去,...
原创
2021-08-12 22:33:47
2835阅读
elif self.cfg.MODEL.ATSS.POSITIVE_TYPE == 'ATSS':
# 注意:以下的过程都是对于一张图片来操作的
num_anchors_per_loc = len(self.cfg.MODEL.ATSS.ASPECT_RATIOS) * self.cfg.MODEL.ATSS.SCALE
转载
2024-07-04 18:18:59
117阅读