文章目录1、自动求导 *gradient*2、Tensor2.1 数据类型2.2 *tensor* 属性2.3 类型转换3、*Tensor* 创建4、索引和切片4.1 索引选择相关函数4.2 维度变换4.3 维度拓展4.4 维度压缩5、合并与分割5.1 合并5.2 分割6、数据统计6.1 范数6.2 最值|均值6.3 比较是否相等7、张量排序8、数据的填充与复制9、张量限幅 本人也是小菜,记录
 一. TensorFlow内的基本概念图的构建 1.初始化图tf.reset_default_graph()用于清除默认图形堆栈并重置全局默认图形.2.构建新的图g1 = tf.Graph() g2 = tf.Graph()3.在图中定义张量with g1.as_default(): a = tf.constant([1.0, 1.0]) b = tf.constant([1.0, 1
import tensorflow as tfa = tf.Variable([4,5,6])b = tf.Variable([1,2,3])c = tf.concat(0,[a,b])init_op = tf.initialize_all_variables()with tf.Session() as sess: sess.run(init_op) print(sess.ru
原创 2022-07-19 11:36:38
49阅读
tensorflow 动态数组随时可以读取import tensorflow as tfta = tf.TensorArray(tf.float32, size=0, dynamic_size=True, clear_after_read=False)ta = ta.write(0, 10)ta = ta.write(1, 20)ta = ta.write(2, 30)print(ta.read(
原创 2023-01-16 07:54:46
92阅读
TensorFlow 的张量就是一个 n 维数组, 类型为tf.Tensor。 文章目录1 创建张量1.1 创建固定值张量1.2 创建随机张量2 张量的阶3 张量的类型4 张量的变换4.1 类型的变换4.2 形状的变换5 张量的切片与扩展6 其它张量运算 1 创建张量1.1 创建固定值张量操作代码说明全零张量tf.zeros(shape, dtype=tf.float32, name=None)创
这篇文章将讲解如何使用lstm进行时间序列方面的预测,重点讲lstm的应用,原理部分可参考以下两篇文章:Understanding LSTM Networks       LSTM学习笔记编程环境:python3.5,tensorflow 1.0本文所用的数据集来自于kesci平台,由云脑机器学习实战训练营提供:真实业界数据的时间序列预测挑战数据集采用来自业
1 2
原创 2022-11-02 09:52:13
60阅读
声明:1. 我和每一个应该看这篇博文的人一样,都是初学者,都是小菜鸟,我发布博文只是希望加深学习印象并与大家讨论。2. 我不确定的地方用了“应该”二字首先,通俗说一下,CNN的存在是为了解决两个主要问题:1. 权值太多。这个随便一篇博文都能解释2. 语义理解。全连接网络结构处理每一个像素时,其相邻像素与距离很远的像素无差别对待,并没有考虑图像内容的空间结构。换句话说,打乱图像像素的输入顺序,结果不
转载 2024-08-08 10:28:52
40阅读
Tensorflow教程笔记基础TensorFlow 基础TensorFlow 模型建立与训练基础示例:多层感知机(MLP)卷积神经网络(CNN)循环神经网络(RNN)深度强化学习(DRL)Keras Pipeline自定义层、损失函数和评估指标常用模块 tf.train.Checkpoint :变量的保存与恢复常用模块 TensorBoard:训练过程可视化常用模块 tf.data :数据集的构建与预处理常用模块 TFRecord :TensorFlow 数据集存储格式常用模
原创 2021-07-09 14:24:12
921阅读
有时候需要把数组中比较小的值过滤掉,示例:data1 = np.array([1,2,3])data2 = np.where(data1 > 1,data1,0)print(data2)输出结果可以看出,如果data1 大于1 那么取值为本来的值,如果小于1 则为0  ...
原创 2021-07-12 11:47:25
411阅读
最近开始学习tensorflow,那么在这里把我学习过程中的感受讲讲。首先是tensorflow的基本操作在这里我只贴上一小部分代码,附上中文的解释,我觉得了解这些之后再去看官方文档应该知道怎么入手了。第一个当然是用tensorflow写的 hello world啦。。。import os import tensorflow as tf os.environ['TF_CPP_MIN_LOG_LEV
文章目录1 导包2 Dataset数据创建3 数据随机打散4 设置批大小5 重复数据6 数据映射7 数据拼接8 打包成元组9 数据补充10 数据过滤11 设置缓冲区 tf.data.Dataset接口是一个生成Dataset数据的高级借口,在对于大型数据集的处理中有很大帮助,同时这也是官方推荐使用的数据处理方式。1 导包import tensorflow as tf import numpy a
转载 2024-04-09 16:29:52
32阅读
tensorflow中,Graph是一个就像一个大容器,OP、Tensor、Variable是这个大容器的组成部件。Graph管理Tensor对象,Session管理Variable对象。Variable对象必须在Session对象内初始化。初始化所有Variable对象,把.global_variables_initializer() Op传给Session.run()。初始化部分Variabl
转载 2024-05-10 02:07:34
101阅读
1、什么是TensorFlowTensorFlow是谷歌基于DistBelief进行研发的第二代人工智能学习系统,其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow为张量从流图的一端流动到另一端计算过程。TensorFlow是将复杂的数据结构传输至人工智能神经网中进行分析和处理过程的系统[1]。TensorFlow可被用于
        虽然在训练初期使用 He 初始化方法初始ELU(或者其他派生的ReLU)能够有效的防止梯度弥散、爆炸问题。但是这种方式无法保证梯度问题不会在训练过程中产生。        2015年的一篇paper( “Batch Normalization: Accelerat
TF – Kernels模块 TF中包含大量Op算子,这些算子组成Graph的节点集合。这些算子对Tensor实现相应的运算操作。图 4 1列出了TF中的Op算子的分类和举例。 图 4 1 TensorFlow核心库中的部分运算  OpKernels 简介 OpKernel类(core/framework/op_kernel.h)是所有Op类的基类。继承OpKernel还可
转载 9月前
69阅读
本文主要带领读者了解生成对抗神经网络(GAN),并使用提供的face数据集训练网络GAN 入门自 2014 年 Ian Goodfellow 的《生成对抗网络(Generative Adversarial Networks)》论文发表以来,GAN 的进展突飞猛进,生成结果也越来越具有照片真实感。就在三年前,Ian Goodfellow 在 reddit 上回答 GAN 是否可以应用在文本领域的问题
转载 2024-05-11 20:53:01
83阅读
PaddlePaddle基础命令PaddlePaddle是百度开源的深度学习框架,类似的深度学习框架还有谷歌的Tensorflow、Facebook的Pytorch等,在入门深度学习时,学会并使用一门常见的框架,可以让学习效率大大提升。在PaddlePaddle中,计算的对象是张量,我们可以先使用PaddlePaddle来计算一个[[1, 1], [1, 1]] * [[1, 1], [1, 1]
使用Graphs来表示计算任务在Session的上下文context中执行图使用tensor表示数据通过变量Variable维护状态使用feed和fetch可以为任意的操作赋值或者从其中获取数据Tensorflow是一个编程系统,图graphs表示计算任务,图graphs中的节点称之为op(operation),一个op可以获得0个或多个Tensor,执行计算,产生0个或多个Tensor。Tens
文章目录前言一、TensorFlow1.x1.在2.x环境中运行1.x程序2.定义计算图3.变量初始化4.创建执行会话5.占位符6.TensorBoard可视化工具二、TensorFlow2.x1.Tensor类2.张量创建3.维度变换4.张量索引5.张量运算总结 前言简单记录一些TensorFlow1.x中的操作,主要记录TensorFlow2.x中张量的创建和运算。一、TensorFlow1
  • 1
  • 2
  • 3
  • 4
  • 5