目录2.1 张量的数据类型2.2 张量的生成  (1)使用torch.tensor()函数生成张量  (2) torch.Tensor()函数(3)张量和Numpy数据相互转换(4)随机数生成张量(5)其他生成张量的函数2.3 张量操作   (1) 改变张量的形状   (2)获取张量的元素(需要细化)2.4 张量计算
系列文章目录第一章 人工智能发展大事件第二章 PyTorch基础 文章目录系列文章目录一、Tensor(张量)基本概念二、Tensor(张量)统计学方法三、Tensor(张量)基本操作总结 一、Tensor(张量)基本概念理解标量、向量、矩阵、张量         简单来说,张量是一个更加泛化的概念,包含了标量(0维张量)、向量
TensorFlow这里简单总结一下TensorFlow的入门学习基础,作为TensorFlow学习之旅的启航。 张量(Tensor)TensorFlow 内部的计算都是基于张量的,张量是在我们熟悉的标量、向量之上定义的,详细的定义比较复杂,我们可以先简单的将它理解为一个多维数组:3 # 这个 0 阶张量就是标量,shape=[] [1., 2., 3.] # 这个 1 阶张量就是向量,sha
转载 2024-09-01 10:09:23
43阅读
第2章 神经网络的数学基础张量(tensor)一般来说,当前所有机器学习系统都使用张量作为基本数据结构。张量是数字的容器,矩阵就是二维张量张量是矩阵向任意维度的推广。张量的维度通常称作轴。仅包含一个数字的张量叫做标量(也叫 0D张量)在 Numpy ,一个 float32 或 float64 的数字就是一个标量张量(或标量数组)。你可以用 ndim 属性来查看一个 Numpy 张量的轴的个数。
转载 2023-12-01 10:59:46
33阅读
目录理解张量: 命名张量:(存疑) 张量的元素类型:使用dtype指定数字类型:张量的API: 张量的存储视图: 张量元数据的大小,偏移量和步长: 无复制转置 :高维转置 :连续张量:理解张量张量(tensor)是一个数组,也就是一种数据结构,它存储了一组数字,这些数字可以用一个索引单独访问,也可以用多个索引访问。它是一个数据容器。它包含的数据几
文章目录BasicsAbout shapesIndexingSingle-axis indexingMulti-axis indexingManipulating ShapesMore on dtypesReferences import tensorflow as tf import numpy as npBasics张量是具有统一类型(dtype)的多维数组。它和 NumPy 的 np.a
文章目录一.张量的定义二.张量的生成1.torch.tensor()函数(1).创建(2).属性(3).张量求梯度2.torch.Tensor()类(1).普通创建(2).随机生成张量三.张量的数据类型1.获取张量的默认数据类型2.修改张量的默认数据类型3.张量数据类型转换4.torch和numpy转换(1).numpy 转 torch(2).torch 转 numpy四.张量的操作1.改变形状
张量tensor几何代数定义的张量是基于向量和矩阵的推广,通俗一点理解的话,我们可以将标量视为零阶张量,矢量视为一阶张量,那么矩阵就是二阶张量。那TensorFlow里面的张量(Tensor)是什么,流动(Flow)是什么?是什么?本教程,我将使用Python,Keras,TensorFlow和Python库Numpy。在Python张量通常存储在Numpy数组,Numpy是在大部分的AI
numpy处理张量的包。张量是矩阵向任意维度的推广(张量的维度通常叫做轴 axis)。标量(0D张量) 仅包含一个数字的张量叫作标量(scalar,也叫标量张量、零维张量、0D 张量)。向量(1D张量) 数字组成的数组叫做向量(vector)或一维张量(1D张量)。矩阵(2D张量) 向量组成的数组叫作矩阵(matrix)或二维张量(2D 张量)。3D张量和更高维张量
转载 2023-10-06 22:54:59
87阅读
pytorch张量操作张量的数据类型张量的生成torch.tensor()torch.Tensor()torch.ones_like()/torch.zeros_like()张量和numpy数据的相互转换随机数生成张量张量的操作torch.reshapetorch.unsqueeze()torch.squeeze().expend()/.expend_as().repeat()拼接与拆分张量的计
个人吐槽区:上一篇文章的学习是纯看书学的,后来发现这样有些看不进去,于是在B站上找了网课.......Element-wise operations(逐点运算)逐点运算,顾名思义,也就是两个同等规模的张量进行运算时,相同位置的数值进行同样的运算。举个栗子:import numpy as np >>> x = np.array([ 1, 2, 5, 3]) >>>
文章目录1. pytorch张量1.1 初始化张量1.2 张量类型1.3 创建随机值张量1.4 张量属性1.5 将张量移动到显存2. 张量运算2.1 与NumPy数据类型的转换2.2 张量的变形2.3 张量的自动微分 1. pytorch张量PyTorch最基本的操作对象是张量张量是PyTorch重要的数据结构,可认为是一个高维数组。张量类似NumPy的数组(ndarray),与ndarra
转载 2023-10-11 10:15:38
141阅读
最近看的一篇paper需要的背景知识(可能略有删改)目录1.张量简介2.张量的定义与运算2.1 张量(Tensor)2.2  纤维(Fibre)2.3 切片(Slice)2.4 内积(Inner product)2.5 矩阵展开(Unfolding-Matricization)2.6 外积(Outer Product)2.7 Kronecker乘积(Kronecker Product)2
文章目录一、创建张量1. 从Numpy,List 对象创建2. 创建全0,全1张量二、创建自定义数值张量三、创建已知分布的张量1. 创建正态分布2. 创建均匀分布四、创建序列 一、创建张量1. 从Numpy,List 对象创建Numpy Array 数组和Python List 是Python 程序中间非常重要的数据载体容器,很多数 据都是通过Python 语言将数据加载至Array 或者Lis
 一. 概念:张量、算子           张量(tensor)理论是数学的一个分支学科,在力学中有重要应用。张量这一术语起源于力学,它最初是用来表示弹性介质各点应力状态的,后来张量理论发展成为力学和物理学的一个有力的数学工具。张量之所以重要,在于它可以满足一切物理定律必须与坐标系的选择无关的特性。张量概念是矢量概念的推广,矢量是一阶
转载 2024-07-04 17:52:56
210阅读
tensorx = torch.rand(4,5) torch.save(x.to(torch.device('cpu')), "myTensor.pth") y = torch.load("myTensor.pth") print(y)list 保存到本地就是保存为.npy文件import numpy as np a = [(u'9000023330249', 1), (u'13142928
转载 2023-06-30 10:09:39
217阅读
目录一、张量概述:二、初始化张量:直接使用Python列表转化为张量:通过Numpy数组(ndarray)转换为张量:通过已有的张量生成新的张量:通过指定数据维度生成张量: 三、张量属性:四、张量的运算:1.张量的索引和切片:2.张量的拼接:3.张量的乘法和矩阵乘法:乘法(点乘):矩阵乘法(叉乘):4.自动赋值运算:五、Tensor和Numpy的相互转换:1.由tensor转换为ndar
转载 2023-06-19 18:58:18
615阅读
pytorch张量运算张量的简介生成不同数据类型的张量list和numpy.ndarray转换为TensorTensor与Numpy Array之间的转换Tensor的基本类型转换(float转double,转byte等)torch.arange()、torch.range()、torch.linspace的区别:张量的重排(reshape、squeeze、unsqueeze、permute、t
转载 2023-05-26 10:08:33
176阅读
5. Tensor 分解张量的最大特征之一是可以被紧密地表示为分解形式,并且我们有强大的保证方法来得到这些分解。在本教程,我们将学习这些分解形式以及如何进行张量分解。关于张量分解的更多信息,请参考1。5.1. Tensor 的 Kruskal 形式其思想是将张量表示为一阶张量的和, 也就是向量的外积的和。这种表示可以通过应用典型的Canonical Polyadic 分解(也称为CANDECOM
张量什么是张量?一个数,一个数组,一个矩阵都是张量张量包含多个属性,下面我将进行介绍。 张量的维度,叫做轴(axis)。维度可以无限扩充。查看张量维度:>>> x.ndim标量(0D张量)对应的是数值,例如1,2,3等。向量(1D张量)我们传统理解上的向量是(0,1)、(256,256)等,但这里向量相当于所谓一维数组。>>> x = np.arra
转载 2023-08-14 11:30:59
91阅读
  • 1
  • 2
  • 3
  • 4
  • 5