pytorch学习笔记(六)——pytorch进阶教程之合并与分割目录tensor的加减乘除----add/sub/mul/divtensor的矩阵相乘----mm,matmul/@2d以上的tensor矩阵相乘tensor的次方----pow/sqrt/rsqrt/exp/logtensor的其他运算----floor/ceil/round/trunc/fractensor的其他运算----c
转载 2023-10-08 09:01:32
104阅读
这个ACNet是一个不错的对于卷积核结构的一个创新。总的来说是一个值得在CNN模型中尝试的trick,至于有没有效果还得看缘分。不过这个trick的听同行来说,算是一个好的trick,所以值得尝试。 这个trick的代价是增加了训练阶段的时间和参数,但是并不会增加推理阶段的时长…
转载 2021-07-06 16:37:31
540阅读
DQN(Deep Q Network)DQN可以使计算机玩游戏比人类厉害,Q-learning和Deep-learning的融合当游戏的状态和动作多种多样,多到天文数字的时候,如果用表格来存储的话,显然不切实际,如果用到神经网络就是给出一个状态和动作,通过神经网络,得到这个状态和动作下的value;也可以经过一个状态,通过神经网络,得到不止一个对应的values + op —> value1
转载 2023-12-31 16:36:33
115阅读
文本嵌入预训练模型Glove1.词嵌入预训练模型2.Glove3.求近义词和类比词1.文本嵌入预训练模型虽然 Word2Vec 已经能够成功地将离散的单词转换为连续的词向量,并能一定程度上地保存词与词之间的近似关系,但 Word2Vec 模型仍不是完美的,它还可以被进一步地改进:子词嵌入(subword embedding):FastText 以固定大小的 n-gram 形式将单词更细致地表示为了
单臂摆是强化学习的一个经典模型,本文采用了4种不同的算法来解决这个问题,使用Pytorch实现。以下是老版本,2022年9月14日新增Dueling DQN, Actor-Critic算法, SAC,更新了PPO,DDPG算法,在文末。DQN:参考:算法思想:https://mofanpy.com/tutorials/machine-learning/torch/DQN/算法实现https://p
转载 2024-05-21 07:12:48
115阅读
torch.nn.functional 涉及了所有 torch.nn 需要 类 和 方法 ,torch.nn 构建的模块通常就是调用 torch.nn.functional 里的方法实现的,通过学习 torch.nn.functional 能为后期更好学习构建模型打下基础。 下文涉及 tensor 形状描述: B: batch大小 C:通道数 H:图像数据的高度 W:图像数据的宽度 L:一维数据的
转载 2023-10-16 00:00:24
82阅读
Batch Normalization是google团队在2015年论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》提出的。通过该方法能够加速网络的收敛并提升准确率。在网上虽然已经有很多相关文章,但基本都是摆上论文中的公式泛泛而谈,bn真正是如何运作的很少
Pytorch官方教程(三)—Learning Pytorch with ExamplesPytorch 提供了两个主要特性:n 维 Tensor,类似 numpy 不过可以在 GPU 上运行构建和训练神经网络的自动微分使用全连接 ReLU 网络作为运行示例。在网络中有一个隐藏层,并通过梯度下降训练来匹配随机数据,使网络输出与真实输出之间的欧氏距离最小化。TensorsWarm-up :nump
转载 2024-08-27 19:17:27
5阅读
【学习笔记】Pytorch深度学习—Batch NormalizationBatch Normalization概念`Batch Normalization ``Batch Normalization 定义:“ 批标准化 ”``Batch Normalization 优点``Batch Normalization 算法分析``Batch Normalization 优点分析`***`Intern
转载 2023-10-13 12:12:01
111阅读
Tensor与Variable1.Tensor1.1.expand(*sizes)1.2.unfold(dim, size, step) → Tensor1.3.index_add_(dim, index, tensor) → Tensor1.4.view(*args) → Tensor2.Variable2.1.API 兼容性2.2.in-place 正确性检查2.3.class torch.
PyTorch 1.x 常用API1. 简介1.1 ResNet模型1.2 torch.nn.Module1.2.1 torch.nn.Module.cpu()1.2.2 torch.nn.Module.cuda1.2.3 torch.nn.Module.eval()1.2.4 torch.nn.Module.state_dict1.2.5 torch.nn.Module.load_state_
转载 2024-05-16 10:28:43
186阅读
介绍我们本次实现的目标是将本地的图像分类或者目标检测等等深度学习算法部署成web在线预测的形式。效果图如下,在线图像分类网站 大概的设计是有五个可以选择的模型,第二步是可以选择一些照片用来测试分类,同样可以自己本地上传一些照片,最后输出分类的结果和FPS。调试好本地的web之后就部署在服务器上。代码部分环境安装推荐使用conda下载安装环境,安装命令如下,这里推荐使用python3.7-3.9,为
转载 2023-10-30 13:56:00
117阅读
 backward函数官方定义:torch.autograd.backward(tensors, grad_tensors=None, retain_graph=None, create_graph=False, grad_variables=None)Computes the sum of gradients of given tensors w
转载 2024-08-20 17:29:17
55阅读
1、验证conda是否安装成功在安装pytorch之前,需要验证coda安装是否成功 WIN+R键,打开cmd,输入nvcc -V,出现以下界面说明安装成功,并且知道版本为10.2(记住)2、创建虚拟环境在命令窗口输入命令cona create -n torch38 python=3.8, 其中torch38是你创建虚拟环境的名称,可以根据你自己的喜好进行设置,建议不要太复杂。pthon=3.8是
摘要:在MLP分类器的分析过程中,可以分为数据预处理和网络训练以及可视化部分,其中数据预处理部分会针对数据是否进行标准化处理进行单独分类,主要是用于分析数据标准化对于MLP网络训练的重要性。一、数据准备与探索:            在该数据集中,包含57个邮件内容的统计特征,其中有48个特征是关键词出现的频率*100的取值,6个特征为关
GMF模型1.从深度学习的视角可以理解为矩阵分解模型,其中矩阵分解层的用户隐向量和物品隐向量可以看做是一种Embedding方法,然后将Embedding后的向量进行点积 最后通过一个线性层输出 2.模型结构如下 所以输入的模型中的数据有num_users(user的数量),num_items(item的数量),embed_dim(Embedding的维度)模型需要输入的数据inputs里面应该为
代码已同步到Github:https://github.com/EasonCai-Dev/torch_backbones1 论文关键信息论文链接:ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design论文主要提出了ShuffleNet-v2的轻量级网络结构,并针对如今CNN网络常用的深度分离卷积(depth
转载 2023-09-17 10:24:46
166阅读
文章目录0. 前言1. 建议在看这个文当前,先看看下面三个文档1.1. PyTorch Distributed Overview1.2. DistributedDataParallel API documents1.3. DistributedDataParallel notes2. DataParallel 和 DistributdDataParalle 对比3. 基本使用4. 其他4.1.
转载 2023-11-20 11:43:09
57阅读
自定义Dataset继承torch.utils.data.Dataset类,创建这个类需要实现三个方法: ** __init __**: 主要用于创建对象,在此方法中一般需要传入图片的路径,通过os模块读取所有图片的路径,同时完成对训练、实验、测试集的划分;#读取所有图片的路径 imgs=[os.path.join(root,img) for img in os.listdir(root)]__
1、正则化与偏差-方差分解Regularization:减小方差的策略;误差可分解为偏差,方差与噪声之和,即误差=偏差+方差+噪声之和;偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力;方差度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响;噪声则表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界;该模型在测试集的效果比较差,这
  • 1
  • 2
  • 3
  • 4
  • 5