第一章:Python入门一、语言什么是语言:人与人之间的沟通计算机语言:计算机语言,即人和计算机之间的沟通语言。按照级别分类:机器语言:最底层,最低级的语言,只能识别0/1,电平信号汇编语言:计算机指令(add a-b, sub 2 1)高级语言: C、C++、Java、Python,偏向人的语言计算机语言的执行方式:编译执行:解释执行:Python,相当于翻译官(解释器IDE),好处---以跨
转载
2024-03-13 09:47:07
40阅读
文章目录7.7 torch.ceil() 函数7.8 torch.floor() 函数7.9 torch.clamp() 函数7.10 torch.neg() 函数7.11 torch.reciprocal() 函数7.12 torch.rsqrt() 函数7.13 torch.sqrt() 函数 7.7 torch.ceil() 函数在PyTorch中,torch.ceil 函数用于对张量(t
卷积神经网络 训练数据的方法就是会给计算机提供每种类别 的图片,让机器自己去学习其中的特征并形成一个算法,因为这些算法是依赖于数据集的,所以也被称为是数据驱动的算法。卷积神经网络的原理 1.局部性 往往图片的的类别是通过图片的特征来决定的,而这些决定一般是由一些局部的区域决定的。2.相同性 对于不同的图片,如果有同样的特征,这些特征会出现在图片的不同位置,也就是说可以用同样的检测模式去检测不同图片
转载
2023-12-07 00:06:45
130阅读
# PyTorch DataLoader的底层实现
在进行深度学习训练时,我们通常会使用数据集来训练模型。PyTorch提供了一个高效的工具——`DataLoader`,用于批量加载数据。在本文中,我们将深入探讨`DataLoader`的底层实现,包括一些基本概念和简单的代码示例,帮助大家更好地理解这一强大工具。
## DataLoader基本概念
`DataLoader`是一个迭代器,可以
原创
2024-08-21 08:16:33
201阅读
卷积操作略输入输出尺寸变化略PyTorch实现nn.Conv2d(in_channels,
out_channels,
kernel_size,
stride=1.
padding=0,
dilation=1,
groups=1,
bias=True,
转载
2023-09-03 16:02:39
237阅读
## Go语言函数的底层实现
Go语言是一门编译型语言,其函数的底层实现是通过汇编语言来实现的。在Go中,每个函数都会被编译成一个对应的汇编代码。通过汇编语言,Go语言可以实现高效的函数调用和参数传递。
### 函数调用过程
在Go语言中,函数的调用过程可以简单描述为以下几个步骤:
1. 函数调用时,将函数的参数传递到栈上。
2. 跳转到函数的入口地址。
3. 在函数内部执行代码。
4.
原创
2024-02-27 05:33:06
44阅读
今天这篇文章和大家聊聊机器学习领域的熵。 我在看paper的时候发现对于交叉熵的理解又有些遗忘,复习了一下之后,又有了一些新的认识。
故写下本文和大家分享。
熵这个概念应用非常广泛,我个人认为比较经典的一个应用是在热力学当中,反应一个系统的混乱程度。 根据热力学第二定律,一个孤立系统的熵不会减少。
比如一盒乒乓球,如果把盒子掀翻了,乒乓球散出来,它的熵
作者丨Frank Odom
本篇文章从卷积的定理介绍、Pytorch的实现以及测试方面对傅立叶卷积提供了详尽的介绍,文章在Pytorch的实现部分进行了非常详细的讲解并附有相关的代码。文末最后还附有作者对卷积与互相关证明。>>加入极市CV技术交流群,走在计算机视觉的最前沿卷积卷积在数据分析中无处不在。几十年来,它们已用于信号和图像处理。最近,它们已成为现代神经网络的重要组成
# 在PyTorch中实现CPU卷积的底层代码
在计算机视觉和深度学习的领域中,卷积操作是一个重要组成部分。PyTorch是一个流行的深度学习框架,允许我们在高层次上使用卷积操作。但是,如果你想了解底层如何实现CPU卷积,这篇文章将指导你进行手动实现。
## 流程概述
在实现卷积之前,我们需要了解一般的卷积操作流程。下面是实现CPU卷积的主要步骤:
| 步骤 | 描述
原创
2024-09-03 06:57:30
185阅读
精彩内容不迷路机器之心报道广受人们欢迎的深度学习框架 PyTorch 刚刚更新了 1.10 正式版,在 CUDA Graphs API 等方面进行了诸多改进。PyTorch 是一个开源的 Python 机器学习库,基于 Torch,底层由 C++ 实现,主要应用于人工智能领域,如自然语言处理,它最初由 Facebook 的人工智能研究团队开发。由于 PyTorch 定义网络结构简单等特点,自发布以
转载
2023-12-25 19:24:22
66阅读
1 激活函数介绍1.1 什么是激活函数激活函数是神经网络中引入的非线性函数,用于捕获数据中的复杂关系。它来自动物界的灵感,动物的神经元会接受来自对它有作用的其他神经元的信号,当然这些信号对该神经元的作用大小不同(即具有不同的权重)。那么该神经元的信号值就是其他神经元信号加权求和后的值。如果该信号值大于指定阈值,则会激活,否则不会激活,抽象的数学模型为:这里的激活函数就是阶跃函数,但在0处跃变且不可
PyTorch中对tensor的很多操作如sum,softmax等都可以设置dim参数用来指定操作在哪一维进行。PyTorch中的dim类似于numpy中的axis。dim与方括号的关系创建一个矩阵a = torch.tensor([[1, 2], [3, 4]])
print(a)输出:tensor([[1, 2],
[3, 4]])因为a是一个矩阵,所以a的左边有2个括号括号之
转载
2023-07-28 14:41:42
212阅读
# JavaScript 中 join 函数的底层实现
在JavaScript中,`Array.prototype.join()`方法用于将数组的所有元素连接成一个字符串,并返回这个字符串。该方法的核心在于将数组元素逐个拼接并用指定的分隔符分隔开。在下面的文章中,我们将逐步创建一个类似于`join`的方法。我们将通过一系列明确的步骤来实现,并在每步中提供代码示例及详细注释。
## 整体流程
原创
2024-10-30 04:36:59
73阅读
在前面的理论讲解和网络实现中,我们断断续续的学习了 Tensorflow 和 keras 两个著名的深度学习框架。当然主要还是 Tensorflow,keras 的底层计算都是以 Tensorflow 为后端的。在正式进入下一环节的学习前,笔者先给 pytorch 入个门,至于系统的学习,还是需要依靠各
转载
2024-01-04 19:23:03
53阅读
如有错误,请不吝指出。pytorch源码注释,欢迎 pr,提 issue 和 star当我们使用 pytorch 的 python 的接口编写代码的时候,感觉是十分清爽的,不需要考虑底层的实现。但是好奇心驱使我们 想一探究竟,看看底层 C/C++ 那部分到底做了什么。本篇文章主要专注于:
pytorch 是如何动态构建反向传导图的
pytorch 的反向传导是怎么操作的pytorch 是如何构建反
转载
2023-11-27 05:38:23
77阅读
正常卷积 Pytorch中卷积的API的常用参数:in_channels:Ci,输入通道数,即输入层的feature map的个数out_channels:Co,输出通道数,即输出层feature map的个数对feature map概念不清晰的可参考这篇博客,或观看吴恩达深度学习网课kernel_size:K,卷积核(也称滤波器)大小,如果只有一个值表明卷积核为方形,两个不同的值则为矩形stri
转载
2024-05-17 09:51:55
60阅读
前言本文主要用pytorch对线性函数进行拟合,主要用到底层原理中的梯度下降与反向传播。正文代码相关知识(下面是自己写的注意点,可能有些大家一知半解,可以看视频讲解): 1、requires_grad表示变量后面是否需要计算梯度,正常情况下是False 2、反向传播能得到梯度,而x.grad可以获取某个导数值,也就是梯度 注:一般我们用损失函数进行反向传播,并且w.grad当required_gr
转载
2023-11-29 05:15:33
65阅读
文章目录讲解MNIST的介绍须导入的函数库检查 pytorch 的版本定义超参数下载 MNIST的数据集定义网络网络实例化定义训练函数定义测试函数主函数全部源代码 2020.07.24更新:关于网络层的更详细的信息,可以参考“评论”,写的比我要详细一点。讲解MNIST的介绍好比编程入门有 Hello World,机器学习入门有 MNIST 。MNIST的官方网址:THE MNIST DATABA
转载
2024-09-19 14:35:55
22阅读
1评论
本博客用来记录常用的torch中的函数torch.maxoutput = torch.max(x,dim=1)input输入的是一个tensordim是max函数索引的维度0/1,0是每列的最大值,1是每行的最大值返回的是两个值:一个是每一行或列最大值的tensor组,另一个是最大值所在的位置(索引)x = torch.rand(3,5)
# tensor([[0.3168, 0.8239, 0.
转载
2023-10-09 10:41:20
290阅读
梯度定义: 数学(高数):标量场的梯度是一个向量场。意义:沿着梯度方向,函数变化最快,最大变化率是梯度的大小。(高数的学习)某一点梯度:在该点对各变量求梯度。 反映到tensor上直观的来讲就是:对Tensor通过某个运算得到的标量结果求梯度的结果是一个同型的tensor注意事项: 1.dtype必须是浮点数 2.梯度的求解对象: 一般只能对标量场或者一维向量(可以被视为标量)求梯度。即只能对某一
转载
2023-09-19 12:13:20
125阅读