简单地介绍一下张量网络是什么,以及它有什么应用。1. 张量(te一系列分量表示...
转载 2022-02-28 17:17:06
823阅读
简单地介绍一下张量网络是什么,以及它有什么应用。1. 张量(tensor)张量网络中的张量,和微分几何和GR中的张量场并不完全相同。在微分几何中,一点处的张量是基于流形上该点的切空间的。一个(m,n)型张量是指将m个协变矢
转载 2021-05-20 22:22:22
517阅读
稀疏张量网络 稀疏张量 在传统语音,文本或图像数据中,特征是密集提取的。因此,用于这些数据的最常见表示形式是矢量,矩阵和张量。但是,对于3维扫描或什至更高维的空间,这样的密集表示效率不高,因为有效信息仅占空间的一小部分。取而代之,只能将信息保存在空间的非空区域上,这与将信息保存在稀疏矩阵上的方式类似
转载 2021-01-03 17:48:00
567阅读
2评论
0. 简介与前置知识本笔记着重学习Zhao Qibin教授等发表的"关于利用张量网络缩减维度和大规模优化"(Tensor Networks for dimensionality Reduction and Large-Scale Optimization)等张量网络相关的内容. 就目前来看, 网上并没有公开资源, 而前述学术文章的官方中文据悉仍在制作中. 本笔记视作笔者自己的一个自学概要, 其目的
这里写目录标题一、TEBD算法定义TEBD算法计算一维格点模型基态二、密度矩阵重整化群算法(DMRG)三、基于自动微分的基态变分算法四、矩阵乘积态与纠缠熵面积定律 我是一只正在不断学习、希望早日成为小白的小小白,有什么错误欢迎大家批评指正,喜欢的请点个赞哦! 一、TEBD算法定义给定一个张量网络,把所有的指标求和,得出求和的结果。例如一个由 W×H 个张量组成的张量网络,如下图。该张量网络由三
# 项目方案:使用Python绘制张量网络 ## 1. 项目介绍 张量网络是一种用于表示和处理多维数据的数据结构,广泛应用于机器学习、深度学习和图像处理等领域。本项目旨在使用Python编程语言来绘制和可视化张量网络,从而帮助用户更好地理解和分析复杂的数据结构。 ## 2. 技术选型 本项目基于Python编程语言,并结合以下开源库和工具: - `matplotlib`:用于绘制图形和可视化数
原创 2023-09-07 09:19:58
144阅读
# 在 Python 中实现张量网络的缩并 近年来,张量网络(Tensor Network)在量子物理、机器学习等领域得到了广泛应用。特别是在处理多维数据时,张量网络能够高效地简化计算。对于刚入行的小白,本文将详细介绍如何在 Python 中实现张量网络的缩并(contraction)。 ## 流程概述 在本文中,我们将遵循以下流程来实现张量网络的缩并: | 步骤 | 描述
原创 2024-10-02 05:07:55
67阅读
张量的操作一、张量的拼接1、torch.cat(input, dim=0, out=None) 功能:将张量按维度dim进行拼接 参数:input:要操作的张量 dim:要拼接的维度 2、torch.stack(input, dim=0, out=None) 功能:在新创建的维度上进行拼接 参数:input:要操作的张量 dim:要拼接的维度 cat和stack的区别是,cat方法不会扩展维度,而
In theprevious post, I described a simple way to think about matrices, namely as bipartite graphs. Today I'd like to sh
原创 2022-06-09 09:18:54
238阅读
一般一维数组,我们称之为向量(vector),二维数组,我们称之为矩阵(matrix);三维数组以及多位数组,我们称之为张量(tensor)。    在介绍张量分解前,我们先看看矩阵分解相关知识概念。 一、基本概念矩阵补全(Matrix Completion)目的是为了估计矩阵中缺失的部分(不可观察的部分),可以看做是用矩阵X近似矩阵M,然后用X中的元素作为矩阵M中不
转载 2024-01-23 17:02:49
354阅读
个人吐槽区:上一篇文章的学习是纯看书学的,后来发现这样有些看不进去,于是在B站上找了网课.......Element-wise operations(逐点运算)逐点运算,顾名思义,也就是两个同等规模的张量进行运算时,相同位置的数值进行同样的运算。举个栗子:import numpy as np >>> x = np.array([ 1, 2, 5, 3]) >>>
目录2.1 张量的数据类型2.2 张量的生成  (1)使用torch.tensor()函数生成张量  (2) torch.Tensor()函数(3)张量和Numpy数据相互转换(4)随机数生成张量(5)其他生成张量的函数2.3 张量操作   (1) 改变张量的形状   (2)获取张量中的元素(需要细化)2.4 张量计算
文章目录1. pytorch张量1.1 初始化张量1.2 张量类型1.3 创建随机值张量1.4 张量属性1.5 将张量移动到显存2. 张量运算2.1 与NumPy数据类型的转换2.2 张量的变形2.3 张量的自动微分 1. pytorch张量PyTorch最基本的操作对象是张量张量是PyTorch中重要的数据结构,可认为是一个高维数组。张量类似NumPy的数组(ndarray),与ndarra
转载 2023-10-11 10:15:38
141阅读
最近看的一篇paper需要的背景知识(可能略有删改)目录1.张量简介2.张量的定义与运算2.1 张量(Tensor)2.2  纤维(Fibre)2.3 切片(Slice)2.4 内积(Inner product)2.5 矩阵展开(Unfolding-Matricization)2.6 外积(Outer Product)2.7 Kronecker乘积(Kronecker Product)2
feed_dict 方法它不止是一个方法,同时还是一个观念,让我们可以更加明确的了解到节点创立的时候,并不包含了让节点执行动作的过程,也因为 Tensorflow 这样的特性,我们可以让流程先创立好,最后等到要运算真正开始执行的时候,再放入数字即可,就好比先打造出一个游乐园,等着人进来玩游戏,详情如下简单代码:import tensorflow astf m= tf.add(5, 3) n = t
转载 2024-04-29 13:59:19
18阅读
 一. 概念:张量、算子           张量(tensor)理论是数学的一个分支学科,在力学中有重要应用。张量这一术语起源于力学,它最初是用来表示弹性介质中各点应力状态的,后来张量理论发展成为力学和物理学的一个有力的数学工具。张量之所以重要,在于它可以满足一切物理定律必须与坐标系的选择无关的特性。张量概念是矢量概念的推广,矢量是一阶
转载 2024-07-04 17:52:56
210阅读
张量和线性代数基础一、张量基础1. 张量的定义2. 张量的基本操作和运算二、线性代数基础1. 本征值分解与最大本征值问题本征值分解最大本征值问题最大本征值问题的幂级数求解法2. 奇异值分解与最优低秩近似问题奇异值分解(SVD)矩阵的低秩近似问题高阶奇异值分解2. 多线性代数中的张量单秩问题 这是本人在暑期学习中对有关张量网络算法知识的一些梳理,有什么错误请大家批评指正,喜欢的给点个赞。 一、张
转载 2023-10-10 11:48:59
87阅读
文章目录BasicsAbout shapesIndexingSingle-axis indexingMulti-axis indexingManipulating ShapesMore on dtypesReferences import tensorflow as tf import numpy as npBasics张量是具有统一类型(dtype)的多维数组。它和 NumPy 中的 np.a
Pytorch 零基础学习系列 之 创建张量在深度学习中,神经网路结构是基础;在Pytorch中,张量是构建神经网络的基础 。从本质上讲,Pytorch就是一个处理张量的库。一个张量可以是一个数字、向量、矩阵或者任何n维数组。比较重要的一点是张量可以在GPU上进行计算。例如,下图分别展示了1维张量,2维张量和3维张量:如何创建一般张量?方法一(1) 导入 pytorch 和 numpyimport
(1-1)pytorch张量数据的索引与切片操作1、对于张量数据的索引操作主要有以下几种方式:a=torch.rand(4,3,28,28):DIM=4的张量数据a(1)a[:2]:取第一个维度的前2个维度数据(不包括2);(2)a[:2,:1,:,:]:取第一个维度的前两个数据,取第2个维度的前1个数据,后两个维度全都取到;(3)a[:2,1:,:,:]:取第一个维度的前两个数据,取第2个维度的
  • 1
  • 2
  • 3
  • 4
  • 5