1.什么是张量百科知识:“张量”一词最初由威廉·罗恩·哈密顿在1846年引入,但他把这个词用于指代现在称为模对象。该词现代意义是沃尔德马尔·福格特在1899年开始使用。 这个概念由格雷戈里奥·里奇-库尔巴斯特罗在1890年在《绝对微分几何》标题下发展出来,随着1900年列维-奇维塔经典文章《绝对微分》(意大利文,随后出版了其他译本)出版而为许多数学家所知。随着1915年左右爱因斯坦广
2.1 张量2.2.1 简介  几何代数中定义张量是基于向量和矩阵推广。比如我们可以将标量视为零阶张量,矢量可以视为一阶张量,矩阵就是二阶张量。 张量维度 代表含义0维标量(数字)1维向量2维矩阵3维时序数据、文本数据、单张彩色图片(RGB)4维图像5维视频  张量核心是数据容易,包含数字等数据,可想象成是数字水桶。  例子:一个图像可以用三个字段表示:(width, heigh
转载 2024-04-02 11:03:13
305阅读
我们一天会遇到很多次推荐——当我们决定在Netflix/Youtube上看什么,购物网站上商品推荐,Spotify上歌曲推荐,Instagram上朋友推荐,LinkedIn上工作推荐……列表还在继续!推荐系统目的是预测用户对某一商品“评价”或“偏好”。这些评级用于确定用户可能喜欢什么,并提出明智建议。推荐系统主要有两种类型:基于内容系统:这些系统试图根据项目的内容(类型、颜色等)和
# PyTorch 矩阵计算均方误差 (MSE) 在机器学习和深度学习中,均方误差(Mean Squared Error, MSE)是一种常见损失函数,通常用于回归问题。它计算过程相对简单,但在实际应用中,它能提供非常有效性能评估。本文将探讨PyTorch中如何实现MSE计算,并通过代码示例演示其使用方法。同时,我还会介绍MSE计算过程,并使用旅程图和饼状图为您提供清晰视觉概览。
原创 2024-08-27 09:11:26
230阅读
# PyTorch计算混淆矩阵实现 ## 1. 简介 在机器学习任务中,混淆矩阵是一个常用评估模型性能工具。它可以显示模型在分类任务中预测结果与真实标签之间对应关系。本文将教你如何使用PyTorch计算混淆矩阵。 ## 2. 流程概述 下面的表格展示了计算混淆矩阵整个流程: | 步骤 | 描述 | | --- | --- | | 步骤1 | 加载模型和数据 | | 步骤2 | 运
原创 2024-01-30 09:10:52
225阅读
# 如何使用 PyInstaller 打包 PyTorch 应用程序 在开发 Python 应用程序时,最终目标往往是将其打包成可独立运行可执行文件。本文将指导你如何使用 PyInstaller 将使用 PyTorch 应用程序打包。PyTorch 是一个重要机器学习框架,打包它可能会比较复杂,因此我们会逐步进行说明。 ## 流程概述 下面是整个流程概述,我们将通过以下步骤实现 Py
原创 10月前
201阅读
# PyTorch 相似度矩阵计算教程 在深度学习领域,计算相似度矩阵是一个非常常见任务,尤其在推荐系统和聚类分析中。本文将指导你如何使用 PyTorch计算相似度矩阵。我们将通过分步解释来帮助你理解每一个环节。 ## 流程概述 下面是计算相似度矩阵基本流程。 | 步骤 | 描述 | |----
原创 2024-08-19 03:27:51
202阅读
Jacobian矩阵 1. Jacobian在向量分析中, 雅可比矩阵是一阶偏导数以一定方式排列成矩阵, 其行列式称为雅可比行列式. 雅可比矩阵雅可比矩阵重要性在于它体现了一个可微方程与给出点最优线性逼近. 因此, 雅可比矩阵类似于多元函数导数.雅可比矩阵定义:  雅可比矩阵定义为向量对向量微分矩阵欧式n维空间转换到欧式m维空间函数. 此矩阵表示为:  ,或者&nb
最近在学习pytorch,过程中遇到一些问题,这里权当笔记记录下来,同时也供大家参考。下面简单回顾一下矩阵乘法:(严谨说,其实应该说是矩阵乘法和矩阵内积)1、矩阵乘法  矩阵乘法也就是我们常说矩阵向量积(也称矩阵外积、矩阵叉乘)       它要求前一个矩阵行数等于后一个矩阵列数,其计算方法是计算结果每一行元素为前一个矩阵
协方差矩阵在统计学与概率论中,协方差是指两个向量元素之间相关性。设为n维随机变量 方差定义为:当存在两个随机变量X,Y时,其各个维度偏离其均值程度就可以用协方差来定义:在物理上理解,你可以认为协方差是指两个向量之相互影响程度,单从数值上来看,协方差数值越大,表示两个变量对其均值变化同向程度越大。当随机变量有多个时候,一般不再使用X,Y这样表述,而是使用X1,X2,…X
在向量分析中,雅可比矩阵是一阶偏导数以一定方式排列成矩阵,其行列式称为雅可比行列式。还有,在代数几何中,代数曲线雅可比量表示雅可比簇:伴随该曲线一个代数群,曲线可以嵌入其中。它们全部都以数学家卡尔·雅可比命名;英文雅可比量"Jacobian"可以发音为[ja ˈko bi ən]或者[ʤə ˈko bi ən]。目录[隐藏]· 1 雅可比矩阵o 1.1 例子o 1.2 在动力系统中· 2 雅
行列式要求  要计算行列式,那么这个矩阵一定是一个方阵行列式性质行列式转置后值不变互换行列式中两行,值变为相反数行列式中两行成比例,行列式为0行列式中一行所有元素乘以一个数后加到另一行,行列式值不变 行列式计算有很多方法:矩阵行列式矩阵行列式是一个可以从方形矩阵(方阵)计算出来特别的数。矩阵是数排列:这矩阵行列式是3×6 − 8×4 = 18 − 32 =
        项目要求将模型导出成exe可执行文件,于是就使用pyinstaller进行打包,在打包过程中遇到了一些问题现在在这里记录一下。(可能文章中方法不是解决问题正确方法,但是碰巧都给我解决了)        具体步骤其他大
转载 2023-10-18 10:53:46
2461阅读
一、TensorTensor是Pytorch中重要数据结构,可以认为是一个高维数组。Tensor可以是一个标量、一维数组(向量)、二维数组(矩阵)或者高维数组等。Tensor和numpyndarrays相似。import torch as t构建矩阵:x = t.Tensor(m, n)注意这种情况下只分配了空间,并没有初始化。使用[0,1]均匀分布随机初始化矩阵:x = t.rand(m,
# PyTorch矩阵方差与协方差计算 在数据分析和机器学习领域,方差和协方差是两个非常重要统计量。它们经常被用来描述数据分布和变量之间关系。本文将重点介绍如何使用 PyTorch 计算矩阵方差和协方差,并通过代码示例帮助理解。接下来,我们还将介绍相关基础知识。 ## 基础知识 ### 方差 方差是度量数据集中每个数据点与均值之间差异程度。简单来说,它显示了数据离散程度
原创 10月前
217阅读
引言在模式识别中,经常碰到协方差矩阵这个概念,以前一直没搞懂,现在又碰到这个破玩意了,决定把他搞懂,下面就是做笔记,与大家分享一下均值:标准差:方差:均值描述是样本集合样本平均值,即平均水平.标准差给我们描述则是样本集合各个样本点到均值平均距离,反映是与平均值偏离程度。反映了数据稳定程度。之所以除以n-1而不是除以n,是因为这样能使我们以较小样本集更好逼近总体标准差,即统
1维张量内积-torch.dot()内积返回是一个值,如果都归一化了,可以看做相似度。torch.dot(input, tensor) → Tensor #计算两个张量点积(内积) #官方提示:不能进行广播(broadcast). #example >>> torch.dot(torch.tensor([2, 3]), torch.tensor([2, 1])) #即对应位置
转载 2023-09-02 13:59:17
380阅读
向量点乘:又叫做点积、内积、数量积、标量积,向量a[a1,a2,...,an]和向量b[b1,b2b...,bn]点乘结果是一个标量,记作a.b;   得到一个值。叉乘:又叫向量积、外积、叉积,叉乘,向量a[x1,y1,z1]和向量b[x2,y2,z2]叉乘运算结果是一个向量,并且两个向量叉积与这两个向量组成坐标平面垂直,记作axb;得到一个向量。 
转载 2023-08-08 08:59:57
242阅读
# PyTorch DataLoader占用内存很大原因及解决方法 ## 引言 在使用PyTorch进行深度学习任务时,我们经常会使用`torch.utils.data.DataLoader`来加载训练数据和进行批量处理。然而,许多人在使用`DataLoader`时都会遇到一个问题:占用了大量内存。本文将介绍`DataLoader`占用内存大原因,并提供一些解决方法。 ## DataL
原创 2023-09-16 12:56:39
2824阅读
一.前言在Pytorch Geometric中我们经常使用消息传递范式来自定义GNN模型,但是这种方法存在着一些缺陷:在邻域聚合过程中,物化x_i和x_j可能会占用大量内存(尤其是在大图上)。然而,并不是所有的GNN都需要表达成这种消息传递范式形式,一些GNN是可以直接表达为稀疏矩阵乘法形式。在1.6.0版本之后,PyG官方正式引入对稀疏矩阵乘法GNN更有力支持(torch-sparse中
  • 1
  • 2
  • 3
  • 4
  • 5