我给的示例是chatglm的,有需要的可以换成其他的模型,原理是一样的。
原创 2023-06-24 00:34:13
638阅读
1.安装cuda首先看下自己电脑是CPU还是GPU,看自己电脑对应的cuda版本  看右下角英伟达标识,点击组件,我的cuda版本是12.3,但最后发现安12.1比较好2.安装12.1cuda版本对应的cudnn 3.anaconda安装以及环境变量配置①anaconda安装注意不要安最新的版本,别问我为什么(可能不太好找对应的pytorch版本,太新也容易和很多软件不兼容),
tensorflow使用(转)https://github.com/wizardforcel/data-science-notebook/tree/master/tf/learning-tf-zh一、基础变量TensorFlow 是一种表示计算的方式,直到请求时才实际执行。 从这个意义上讲,它是一种延迟计算形式,它能够极大改善代码的运行:更快地计算复杂变量跨多个系统的分布式计算,包括 GPU。减少
具体的包在我的资源下载中、、、、(楼主对象是大美女 )版本单反有一点错误都无法运行!!!!!!!!!!!!!!!!1、清华镜像
原创 2021-11-20 16:07:33
525阅读
torch.cat的作用是对张量按行或列进行拼接。在使用的过程中我也碰到了一些需要注意的点。 import torch x = torch.rand((4,5)) print(x) tmp = torch.Tensor() for i in range(4): if i%2 == 0: tmp =
转载 2020-10-13 11:02:00
821阅读
2评论
PyTorch中的张量(Tensor)是基本的数据结构,用于存储和操作多维数组。以下是一些常见的PyTorch张量操作:创建张量:使用torch.Tensor()创建一个未初始化的张量。使用torch.tensor(data)根据给定数据创建张量。使用torch.zeros(shape)创建一个全零张量。使用torch.ones(shape)创建一个全一张量。使用torch.rand(shape)
原创 2023-05-20 08:49:26
190阅读
在Word2vec中使用到了非相关数据的降采样方法, 其中用到了torch.mu
原创 2022-11-16 19:46:43
747阅读
1、出现下面错误说明网络中有多个线程,线程间出现问题解决办法,在main入口处代码第一行 加入以下代码:if __name__=='__main__': torch.multiprocessing.set_start_method('spawn') # 在main第一行加入这行代码即可 .....再次出现以下错误:说明有些数据在cpu上,而有些在gpu上 ,发现有一个变量经过torc
之前去实习面试的时候,真真切切的感受到了知识的匮乏,最近就在疯狂的刷知识点,吴恩达的深度学习课也看了个七七八八,pytorch实践了几个小的网络,但是由于还是照着打下来的,记忆的也不牢固。 所以最近希望慢下来,毕竟也不缺实习了,不用去担心面试的问题了。最近的计划就是从经典的网络开始,阅读原汁原味的英文文献,一来提高一下自己的英语阅读能力,二来尽量去理解作者发明时的想法,三来为以后自己写文章打下基础
本文面向:有Python基础,刚接触web框架的Django初学者。环境:windows7 python3.5.1 pycharm Django 1.10版 pip3一、Django简介百度百科:一个开放源代码的Web框架,由Python语言编写......重点:一个大而全的框架,啥都替你考虑好了。1. web框架介绍具体介绍Django之前,必须先介绍WEB框架的概念。web框架: 别人已经设定
转载 2024-08-06 23:20:41
26阅读
目录问题查阅资料解决步骤1.检查pytorch版本、是否有CUDA2.安装CUDA前看电脑的显卡驱动程序版本、支持的最高版本3.安装CUDA和cuDNN4.卸载pytorch5.重新安装pytorch6.问题解决 问题在pycharm上用python3运行代码时报错:查阅资料报错:Torch not compiled with CUDA enabled看这一篇就足够了错误Torch not co
转载 2024-04-02 16:13:04
6049阅读
torch.mmtorch.mm是两个矩阵相乘,即两个二维的张量相乘如下面的例子mat1 = torch.randn(2,3)print("mat1=", mat1)mat2 = torch.randn(3,2)print("mat2=", mat2)mat3 = torch.mm(mat1, mat2)print("mat3=", mat3)但是如果维度超过二维,则会报错。RuntimeError: self must be a matrixtorch.bmm它其实就是加了一
原创 2022-01-05 13:52:03
6270阅读
在RNN模型的训练过程中,需要用到词嵌入,而torch.nn.Embedding就提供了这样的功能。我们只需要初始化torch.nn.Embedding(n,m),n是单词数,m就是词向量的维度。 一开始embedding是随机的,在训练的时候会自动更新。 举个简单的例子: word1和word2是
转载 2020-10-09 15:15:00
1045阅读
2评论
output = torch.max(x,dim=1) input输入的是一个tensor dim是max函数索引的维度0/1,0是每列的最大值,1是每行的最大值 返回的是两个值:一个是每一行最大值的tensor组,另一个是最大值所在的位置 max_col_value = torch.max(x,d
转载 2020-08-03 17:50:00
546阅读
2评论
废话不多说直接上图 如图有a, b, c 三个 3x3的Tensor, 如果我想把这三个tensor的最后一个维度的元素相叠加,形成一个新的tensor 输入 d=torch.stack( (a,b,c) ,dim = 2) 就会发现他们在第二个维度像叠加,具体来说变化如下图所示 d[0][0]的位
原创 2021-07-09 15:19:22
1739阅读
数字万用表使用方法:首先要了解一些基础,比如: power 电源开关 HOLD锁屏按键, B/L一般是为背光灯, 其次要了解 转换开关 V-或DCV 是直流电压挡的意思 V~或ACV交流电压挡的意思 A-或DCA直流电流挡的意思 A~或ACA是交流电流挡的意思, Ω是电阻挡的意思,画一个二极管的符号那个是二极管档也称蜂鸣档,F表示电容挡, H表示电感挡 hfe表示三极管电流放大系数测试挡 一般数字
1.Cuda的下载安装及配置首先我们要确定本机是否有独立显卡。在计算机-管理-设备管理器-显示适配器中,查看是否有独立显卡。可以看到本机有一个集成显卡和独立显卡NVIDIA GetForce GTX 1050。接下来,测试本机独立显卡是否支持CUDA的安装,点击此处查询显卡是否在列表中。从上图中,可以看到我本机的独立显卡是支持CUDA安装的,计算力是6.1。那么,接下来就是选择CUDA进行安装即可
官方文档torch.cat(inputs, dimension=0) → Tensor在给定维度上对输入的张量序列seq 进行连接操作
转载 2022-01-25 10:11:01
3373阅读
当确定不会调用Tensor.backward()计算梯度时,设置禁止计算梯度会减少内存消耗。如果需要计算梯度设置Tensor.requires_grad=True两种禁用方法:(1)将不用计算梯度的变量放在with torch.no_grad()里>>> x = torch.tensor([1.], requires_grad=True)>>> with tor
原创 2023-02-23 21:19:46
1601阅读
官方文档torch.cat(inputs, dimension=0) → Tensor在给定维度上对输入的张量序列seq 进行连接操作。torch.cat()可以看做 torch.split() 和 torch.chunk()的反操作。参数:inputs (sequence of Tensors) – 可以是任意相同Tensor 类型的python 序列dimension (int, optional) – 沿着此维连接张量序列。cat() 函数可以通过下面例子更好的理解。官方例子&gt
转载 2021-06-18 14:51:18
4045阅读
  • 1
  • 2
  • 3
  • 4
  • 5