第一章:Python入门一、语言什么是语言:人与人之间沟通计算机语言:计算机语言,即人和计算机之间沟通语言。按照级别分类:机器语言:最底层,最低级语言,只能识别0/1,电平信号汇编语言:计算机指令(add a-b, sub 2 1)高级语言: C、C++、Java、Python,偏向人语言计算机语言执行方式:编译执行:解释执行:Python,相当于翻译官(解释器IDE),好处---以跨
转载 2024-03-13 09:47:07
40阅读
文章目录7.7 torch.ceil() 函数7.8 torch.floor() 函数7.9 torch.clamp() 函数7.10 torch.neg() 函数7.11 torch.reciprocal() 函数7.12 torch.rsqrt() 函数7.13 torch.sqrt() 函数 7.7 torch.ceil() 函数PyTorch中,torch.ceil 函数用于对张量(t
卷积神经网络 训练数据方法就是会给计算机提供每种类别 图片,让机器自己去学习其中特征并形成一个算法,因为这些算法是依赖于数据集,所以也被称为是数据驱动算法。卷积神经网络原理 1.局部性 往往图片类别是通过图片特征来决定,而这些决定一般是由一些局部区域决定。2.相同性 对于不同图片,如果有同样特征,这些特征会出现在图片不同位置,也就是说可以用同样检测模式去检测不同图片
# PyTorch DataLoader底层实现 在进行深度学习训练时,我们通常会使用数据集来训练模型。PyTorch提供了一个高效工具——`DataLoader`,用于批量加载数据。在本文中,我们将深入探讨`DataLoader`底层实现,包括一些基本概念和简单代码示例,帮助大家更好地理解这一强大工具。 ## DataLoader基本概念 `DataLoader`是一个迭代器,可以
原创 2024-08-21 08:16:33
201阅读
卷积操作略输入输出尺寸变化略PyTorch实现nn.Conv2d(in_channels, out_channels, kernel_size, stride=1. padding=0, dilation=1, groups=1, bias=True,
转载 2023-09-03 16:02:39
237阅读
## Go语言函数底层实现 Go语言是一门编译型语言,其函数底层实现是通过汇编语言来实现。在Go中,每个函数都会被编译成一个对应汇编代码。通过汇编语言,Go语言可以实现高效函数调用和参数传递。 ### 函数调用过程 在Go语言中,函数调用过程可以简单描述为以下几个步骤: 1. 函数调用时,将函数参数传递到栈上。 2. 跳转到函数入口地址。 3. 在函数内部执行代码。 4.
原创 2024-02-27 05:33:06
44阅读
今天这篇文章和大家聊聊机器学习领域熵。 我在看paper时候发现对于交叉熵理解又有些遗忘,复习了一下之后,又有了一些新认识。 故写下本文和大家分享。 熵这个概念应用非常广泛,我个人认为比较经典一个应用是在热力学当中,反应一个系统混乱程度。 根据热力学第二定律,一个孤立系统熵不会减少。 比如一盒乒乓球,如果把盒子掀翻了,乒乓球散出来,它
作者丨Frank Odom 本篇文章从卷积定理介绍、Pytorch实现以及测试方面对傅立叶卷积提供了详尽介绍,文章在Pytorch实现部分进行了非常详细讲解并附有相关代码。文末最后还附有作者对卷积与互相关证明。>>加入极市CV技术交流群,走在计算机视觉最前沿卷积卷积在数据分析中无处不在。几十年来,它们已用于信号和图像处理。最近,它们已成为现代神经网络重要组成
# 在PyTorch实现CPU卷积底层代码 在计算机视觉和深度学习领域中,卷积操作是一个重要组成部分。PyTorch是一个流行深度学习框架,允许我们在高层次上使用卷积操作。但是,如果你想了解底层如何实现CPU卷积,这篇文章将指导你进行手动实现。 ## 流程概述 在实现卷积之前,我们需要了解一般卷积操作流程。下面是实现CPU卷积主要步骤: | 步骤 | 描述
原创 2024-09-03 06:57:30
185阅读
精彩内容不迷路机器之心报道广受人们欢迎深度学习框架 PyTorch 刚刚更新了 1.10 正式版,在 CUDA Graphs API 等方面进行了诸多改进。PyTorch 是一个开源 Python 机器学习,基于 Torch,底层由 C++ 实现,主要应用于人工智能领域,如自然语言处理,它最初由 Facebook 的人工智能研究团队开发。由于 PyTorch 定义网络结构简单等特点,自发布以
1 激活函数介绍1.1 什么是激活函数激活函数是神经网络中引入非线性函数,用于捕获数据中复杂关系。它来自动物界灵感,动物神经元会接受来自对它有作用其他神经元信号,当然这些信号对该神经元作用大小不同(即具有不同权重)。那么该神经元信号值就是其他神经元信号加权求和后值。如果该信号值大于指定阈值,则会激活,否则不会激活,抽象数学模型为:这里激活函数就是阶跃函数,但在0处跃变且不可
PyTorch中对tensor很多操作如sum,softmax等都可以设置dim参数用来指定操作在哪一维进行。PyTorchdim类似于numpy中axis。dim与方括号关系创建一个矩阵a = torch.tensor([[1, 2], [3, 4]]) print(a)输出:tensor([[1, 2], [3, 4]])因为a是一个矩阵,所以a左边有2个括号括号之
转载 2023-07-28 14:41:42
212阅读
# JavaScript 中 join 函数底层实现 在JavaScript中,`Array.prototype.join()`方法用于将数组所有元素连接成一个字符串,并返回这个字符串。该方法核心在于将数组元素逐个拼接并用指定分隔符分隔开。在下面的文章中,我们将逐步创建一个类似于`join`方法。我们将通过一系列明确步骤来实现,并在每步中提供代码示例及详细注释。 ## 整体流程
原创 2024-10-30 04:36:59
73阅读
        在前面的理论讲解和网络实现中,我们断断续续学习了 Tensorflow 和 keras 两个著名深度学习框架。当然主要还是 Tensorflow,keras 底层计算都是以 Tensorflow 为后端。在正式进入下一环节学习前,笔者先给 pytorch 入个门,至于系统学习,还是需要依靠各
前言本文主要用pytorch对线性函数进行拟合,主要用到底层原理中梯度下降与反向传播。正文代码相关知识(下面是自己写注意点,可能有些大家一知半解,可以看视频讲解): 1、requires_grad表示变量后面是否需要计算梯度,正常情况下是False 2、反向传播能得到梯度,而x.grad可以获取某个导数值,也就是梯度 注:一般我们用损失函数进行反向传播,并且w.grad当required_gr
正常卷积 Pytorch中卷积API常用参数:in_channels:Ci,输入通道数,即输入层feature map个数out_channels:Co,输出通道数,即输出层feature map个数对feature map概念不清晰可参考这篇博客,或观看吴恩达深度学习网课kernel_size:K,卷积核(也称滤波器)大小,如果只有一个值表明卷积核为方形,两个不同值则为矩形stri
如有错误,请不吝指出。pytorch源码注释,欢迎 pr,提 issue 和 star当我们使用 pytorch python 接口编写代码时候,感觉是十分清爽,不需要考虑底层实现。但是好奇心驱使我们 想一探究竟,看看底层 C/C++ 那部分到底做了什么。本篇文章主要专注于: pytorch 是如何动态构建反向传导图 pytorch 反向传导是怎么操作pytorch 是如何构建反
转载 2023-11-27 05:38:23
77阅读
文章目录讲解MNIST介绍须导入函数检查 pytorch 版本定义超参数下载 MNIST数据集定义网络网络实例化定义训练函数定义测试函数函数全部源代码 2020.07.24更新:关于网络层更详细信息,可以参考“评论”,写比我要详细一点。讲解MNIST介绍好比编程入门有 Hello World,机器学习入门有 MNIST 。MNIST官方网址:THE MNIST DATABA
转载 2024-09-19 14:35:55
22阅读
1评论
本博客用来记录常用torch中函数torch.maxoutput = torch.max(x,dim=1)input输入是一个tensordim是max函数索引维度0/1,0是每列最大值,1是每行最大值返回是两个值:一个是每一行或列最大值tensor组,另一个是最大值所在位置(索引)x = torch.rand(3,5) # tensor([[0.3168, 0.8239, 0.
梯度定义: 数学(高数):标量场梯度是一个向量场。意义:沿着梯度方向,函数变化最快,最大变化率是梯度大小。(高数学习)某一点梯度:在该点对各变量求梯度。 反映到tensor上直观来讲就是:对Tensor通过某个运算得到标量结果求梯度结果是一个同型tensor注意事项: 1.dtype必须是浮点数 2.梯度求解对象: 一般只能对标量场或者一维向量(可以被视为标量)求梯度。即只能对某一
转载 2023-09-19 12:13:20
125阅读
  • 1
  • 2
  • 3
  • 4
  • 5