1.什么是张量百科知识:“张量”一词最初由威廉·罗恩·哈密顿在1846年引入,但他把这个词用于指代现在称为模的对象。该词的现代意义是沃尔德马尔·福格特在1899年开始使用的。 这个概念由格雷戈里奥·里奇-库尔巴斯特罗在1890年在《绝对微分几何》的标题下发展出来,随着1900年列维-奇维塔的经典文章《绝对微分》(意大利文,随后出版了其他译本)的出版而为许多数学家所知。随着1915年左右爱因斯坦的广            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-07 11:13:05
                            
                                66阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            2.1 张量2.2.1 简介  几何代数中定义的张量是基于向量和矩阵的推广。比如我们可以将标量视为零阶张量,矢量可以视为一阶张量,矩阵就是二阶张量。 张量维度 代表含义0维标量(数字)1维向量2维矩阵3维时序数据、文本数据、单张彩色图片(RGB)4维图像5维视频  张量的核心是数据容易,包含数字等数据,可想象成是数字的水桶。  例子:一个图像可以用三个字段表示:(width, heigh            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-02 11:03:13
                            
                                305阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            我们一天会遇到很多次推荐——当我们决定在Netflix/Youtube上看什么,购物网站上的商品推荐,Spotify上的歌曲推荐,Instagram上的朋友推荐,LinkedIn上的工作推荐……列表还在继续!推荐系统的目的是预测用户对某一商品的“评价”或“偏好”。这些评级用于确定用户可能喜欢什么,并提出明智的建议。推荐系统主要有两种类型:基于内容的系统:这些系统试图根据项目的内容(类型、颜色等)和            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-23 17:49:47
                            
                                110阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            # PyTorch 矩阵计算中的均方误差 (MSE)
在机器学习和深度学习中,均方误差(Mean Squared Error, MSE)是一种常见的损失函数,通常用于回归问题。它的计算过程相对简单,但在实际应用中,它能提供非常有效的性能评估。本文将探讨PyTorch中如何实现MSE计算,并通过代码示例演示其使用方法。同时,我还会介绍MSE计算的过程,并使用旅程图和饼状图为您提供清晰的视觉概览。            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-08-27 09:11:26
                            
                                230阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            # PyTorch计算混淆矩阵的实现
## 1. 简介
在机器学习任务中,混淆矩阵是一个常用的评估模型性能的工具。它可以显示模型在分类任务中的预测结果与真实标签之间的对应关系。本文将教你如何使用PyTorch计算混淆矩阵。
## 2. 流程概述
下面的表格展示了计算混淆矩阵的整个流程:
| 步骤 | 描述 |
| --- | --- |
| 步骤1 | 加载模型和数据 |
| 步骤2 | 运            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-01-30 09:10:52
                            
                                225阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            # 如何使用 PyInstaller 打包 PyTorch 应用程序
在开发 Python 应用程序时,最终目标往往是将其打包成可独立运行的可执行文件。本文将指导你如何使用 PyInstaller 将使用 PyTorch 的应用程序打包。PyTorch 是一个重要的机器学习框架,打包它可能会比较复杂,因此我们会逐步进行说明。
## 流程概述
下面是整个流程的概述,我们将通过以下步骤实现 Py            
                
         
            
            
            
            # PyTorch 相似度矩阵计算教程
在深度学习领域,计算相似度矩阵是一个非常常见的任务,尤其在推荐系统和聚类分析中。本文将指导你如何使用 PyTorch 来计算相似度矩阵。我们将通过分步解释来帮助你理解每一个环节。
## 流程概述
下面是计算相似度矩阵的基本流程。
| 步骤  | 描述                                            |
|----            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-08-19 03:27:51
                            
                                202阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            Jacobian矩阵 1. Jacobian在向量分析中, 雅可比矩阵是一阶偏导数以一定方式排列成的矩阵, 其行列式称为雅可比行列式. 雅可比矩阵雅可比矩阵的重要性在于它体现了一个可微方程与给出点的最优线性逼近. 因此, 雅可比矩阵类似于多元函数的导数.雅可比矩阵定义:  雅可比矩阵定义为向量对向量的微分矩阵欧式n维空间转换到欧式m维空间的函数.  此矩阵表示为:     ,或者&nb            
                
         
            
            
            
            最近在学习pytorch,过程中遇到一些问题,这里权当笔记记录下来,同时也供大家参考。下面简单回顾一下矩阵中的乘法:(严谨的说,其实应该说是矩阵乘法和矩阵内积)1、矩阵乘法  矩阵乘法也就是我们常说的矩阵向量积(也称矩阵外积、矩阵叉乘)       它要求前一个矩阵的行数等于后一个矩阵的列数,其计算方法是计算结果的每一行元素为前一个矩阵的            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-16 15:09:54
                            
                                514阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            协方差矩阵在统计学与概率论中,协方差是指两个向量元素之间的相关性。设为n维随机变量 方差的定义为:当存在两个随机变量X,Y时,其各个维度偏离其均值的程度就可以用协方差来定义:在物理上的理解,你可以认为协方差是指两个向量之相互影响的程度,单从数值上来看,协方差的数值越大,表示两个变量对其均值的变化同向的程度越大。当随机变量有多个的时候,一般不再使用X,Y这样的表述,而是使用X1,X2,…X            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-07-02 22:05:28
                            
                                0阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            在向量分析中,雅可比矩阵是一阶偏导数以一定方式排列成的矩阵,其行列式称为雅可比行列式。还有,在代数几何中,代数曲线的雅可比量表示雅可比簇:伴随该曲线的一个代数群,曲线可以嵌入其中。它们全部都以数学家卡尔·雅可比命名;英文雅可比量"Jacobian"可以发音为[ja ˈko bi ən]或者[ʤə ˈko bi ən]。目录[隐藏]· 1 雅可比矩阵o 1.1 例子o 1.2 在动力系统中· 2 雅            
                
         
            
            
            
            行列式要求  要计算行列式,那么这个矩阵一定是一个方阵行列式性质行列式转置后值不变互换行列式中两行,值变为相反数行列式中两行成比例,行列式为0行列式中一行所有元素乘以一个数后加到另一行,行列式值不变 行列式的计算有很多方法:矩阵的行列式矩阵的行列式是一个可以从方形矩阵(方阵)计算出来的特别的数。矩阵是数的排列:这矩阵的行列式是3×6 − 8×4 = 18 − 32 =            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-19 19:56:34
                            
                                68阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
                    项目要求将模型导出成exe可执行文件,于是就使用pyinstaller进行打包,在打包的过程中遇到了一些问题现在在这里记录一下。(可能文章中的方法不是解决问题的正确方法,但是碰巧都给我解决了)        具体的步骤其他大            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-10-18 10:53:46
                            
                                2465阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            一、TensorTensor是Pytorch中重要的数据结构,可以认为是一个高维数组。Tensor可以是一个标量、一维数组(向量)、二维数组(矩阵)或者高维数组等。Tensor和numpy的ndarrays相似。import torch as t构建矩阵:x = t.Tensor(m, n)注意这种情况下只分配了空间,并没有初始化。使用[0,1]均匀分布随机初始化矩阵:x = t.rand(m,            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-20 23:52:28
                            
                                19阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            # PyTorch 中的矩阵方差与协方差计算
在数据分析和机器学习领域,方差和协方差是两个非常重要的统计量。它们经常被用来描述数据的分布和变量之间的关系。本文将重点介绍如何使用 PyTorch 计算矩阵的方差和协方差,并通过代码示例帮助理解。接下来,我们还将介绍相关的基础知识。
## 基础知识
### 方差
方差是度量数据集中每个数据点与均值之间的差异程度。简单来说,它显示了数据的离散程度            
                
         
            
            
            
            引言在模式识别中,经常碰到协方差矩阵这个概念,以前一直没搞懂,现在又碰到这个破玩意了,决定把他搞懂,下面就是做的笔记,与大家分享一下均值:标准差:方差:均值描述的是样本集合的样本的平均值,即平均水平.标准差给我们描述的则是样本集合的各个样本点到均值的平均距离,反映的是与平均值的偏离程度。反映了数据的稳定程度。之所以除以n-1而不是除以n,是因为这样能使我们以较小的样本集更好的逼近总体的标准差,即统            
                
         
            
            
            
            1维张量内积-torch.dot()内积返回的是一个值,如果都归一化了,可以看做相似度。torch.dot(input, tensor) → Tensor
#计算两个张量的点积(内积)
#官方提示:不能进行广播(broadcast).
#example
>>> torch.dot(torch.tensor([2, 3]), torch.tensor([2, 1])) #即对应位置            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-09-02 13:59:17
                            
                                380阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            向量点乘:又叫做点积、内积、数量积、标量积,向量a[a1,a2,...,an]和向量b[b1,b2b...,bn]点乘的结果是一个标量,记作a.b;   得到一个值。叉乘:又叫向量积、外积、叉积,叉乘,向量a[x1,y1,z1]和向量b[x2,y2,z2]叉乘的运算结果是一个向量,并且两个向量的叉积与这两个向量组成的坐标平面垂直,记作axb;得到一个向量。             
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-08 08:59:57
                            
                                242阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            # PyTorch DataLoader占用内存很大的原因及解决方法
## 引言
在使用PyTorch进行深度学习任务时,我们经常会使用`torch.utils.data.DataLoader`来加载训练数据和进行批量处理。然而,许多人在使用`DataLoader`时都会遇到一个问题:占用了大量的内存。本文将介绍`DataLoader`占用内存大的原因,并提供一些解决方法。
## DataL            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2023-09-16 12:56:39
                            
                                2824阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            一.前言在Pytorch Geometric中我们经常使用消息传递范式来自定义GNN模型,但是这种方法存在着一些缺陷:在邻域聚合过程中,物化x_i和x_j可能会占用大量的内存(尤其是在大图上)。然而,并不是所有的GNN都需要表达成这种消息传递的范式形式,一些GNN是可以直接表达为稀疏矩阵乘法形式的。在1.6.0版本之后,PyG官方正式引入对稀疏矩阵乘法GNN更有力的支持(torch-sparse中            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-10-15 11:05:14
                            
                                1076阅读
                            
                                                                             
                 
                
                                
                    