http://wiki.jikexueyuan.com/project/tensorflow-zh/how_tos/reading_data.html#QueueRunnerhttp://wiki.jikexueyuan.com/project/tensorflow-zh/how_tos/threading_and_queues.htmlhttps://haosdent.gitbooks.io/t
# TensorFlow学习资源 ### 学习网站 [TensorFlow中文社区](http://www.tensorfly.cn/)- [TensorFlow官方网站](https://www.tensorflow.org/) 非常详细的速查文档http://docs.w3cub.com/ten
转载
2018-06-16 16:50:00
269阅读
2评论
softmax是在一个n分类问题中,输入一个n维的logits向量,输出一个n维概率向量,其物理意义是logits代表的物体属于各类的概率。即softmax的输出是一个n维的one_hot_prediction。
softmax_cross_entropy_with_logits输出的是一个batch_size维的向量,这个向量的每一维表示每一个sample的one_hot_label和one_h
转载
2024-06-20 18:49:42
38阅读
所需软件的安装版本软件版本AnacondaPython 3.5.2 :: Anaconda 4.2.0 (64-bit)CUDAcuda_9.0.176_win10CuDNNcudnn-9.0-windows10-x64-v7.1不想去一个一个下载,我帮你都整理好了,TensorFlow安装套件 百度云下载地址:链接:https://pan.baidu.com/s/1wSvXlwE12GTw27k
转载
2024-04-16 15:13:18
198阅读
我从换了新工作才开始学习使用Tensorflow,感觉实在太难用了,sess和graph对 新手很不友好,各种API混乱不堪,这些在tf2.0都有了重大改变,2.0大量使用keras的 api,初步使用起来,感觉跟pytorch很像,所以,直接拥抱2.0吧 一些学习资源 tf2.0快速上手:
原创
2022-01-17 16:30:55
119阅读
卷积操作tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)除去name参数用以指定该操作的name,与方法有关的一共五个参数:input: 指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_width, in_channels]这样的
转载
2024-03-29 12:42:55
36阅读
本文仅对一些常见的优化方法进行直观介绍和简单的比较,主要是一阶的梯度法,包括SGD, Momentum, Nesterov Momentum, AdaGrad, RMSProp, Adam。 其中SGD,Momentum,Nesterov Momentum是手动指定学习速率的,而后面的AdaGrad, RMSProp, Adam,就能够自动调节学习速率。1、SGDSGD全名 stochastic
转载
2024-03-08 23:01:47
116阅读
TensorFlow 是一个采用数据流图
原创
2023-06-27 22:38:45
86阅读
TensorFlow简介TensorFlow是一个采用数据流图(data flow graphs),用于数值计算的开源软件库。TensorFlow 最初由Google大脑小组(隶属于Google机器智能研究机构)的研究员和工程师们开发出来,用于机器学习和深度神经网络方面的研究,但这个系统的通用性使其也可广泛用于其他计算领域。它是谷歌基于DistBelief进行研发的第二代人工智能学习系统。Tens
注: 本篇内容基于tensorflow2.9.1(python3.10),数据生成器中的batch_size可根据自己计算机的性能设置,防止后续模型运行过程出现显存不足而失败“from kerastuner.tuners import Hyperband
from kerastuner.engine.hyperparameters import HyperParameters”
HyperPa
转载
2024-04-18 08:53:57
66阅读
在采用TensorFlow是,尽量采用TensorFlow自带的api进行数据处理,可以减少采用训练好的模型进行推理阶段的预处理或后处理步骤。 一、Tensor 之间的运算规则相同大小 Tensor 之间的任何算术运算都会将运算应用到元素级不同大小 Tensor(要求dimension 0 必须相同) 之间的运算叫做广播(broadc
转载
2024-03-25 21:15:09
30阅读
简单恢复全部参数保存了所有的参数,然后加载所有的参数的方法如下:一般实验情况下保存的时候,都是用的saver类来保存,如下saver = tf.train.Saver()
saver.save(sess,"model.ckpt")加载时的代码saver.restore(sess,"model.ckpt")恢复部分参数的方法步骤TensorFlow restore部分变量tensorflow res
转载
2024-04-06 13:38:53
82阅读
TensorFlow2实现空间自适应归一化(Spatial Adaptive Normalization, SPADE)空间自适应归一化(Spatial Adaptive Normalization, SPADE)使用独热编码标记分割蒙版实现SPADE在残差网络中应用SPADE 空间自适应归一化(Spatial Adaptive Normalization, SPADE)空间自适应归一化(Spa
转载
2024-07-18 19:01:49
30阅读
Estimator是Tensorflow的高阶API。除了Tensorflow官方定义的内置Estimator之外,用户也可以实现自定义的Estimator。Estimator定义Estimator的构造函数如下:def __init__(self,
model_fn, # 定义模型,根据不同的模式分别定义训练、评估和预测的图。
model_dir=None, # 模型导出目录
转载
2024-04-08 19:45:18
81阅读
1、简介Estimator 是 一种可极大地简化机器学习编程的高阶 TensorFlow API。Estimator 会封装下列操作:训练、评估、预测、导出以供使用我们可以使用预创建的 Estimator,也可以自行编写自定义 Estimator。所有 Estimator(无论是预创建的还是自定义)都是基于 tf.estimator.Estimator 类的类。2、优势Estimator 具有下列
转载
2024-08-25 09:15:00
38阅读
本篇介绍函数包括:
tf.conv2d
tf.nn.relu
tf.nn.max_pool
tf.nn.droupout
tf.nn.sigmoid_cross_entropy_with_logits
tf.truncated_normal
tf.constant
tf.placeholder
tf.nn.bias_add
tf.reduce_mean
tf.squared_d
转载
2024-02-22 00:49:25
37阅读
LSTM,全称为长短期记忆网络(Long Short Term Memory networks),是一种特殊的RNN,能够学习到长期依赖关系。LSTM由Hochreiter & Schmidhuber (1997)提出,许多研究者进行了一系列的工作对其改进并使之发扬光大。 LSTM在解决许多问题上效果非常好,现在被广泛使用。它们主要用于
转载
2024-05-09 15:16:15
83阅读
tf1:
tf.GradientTape()函数:
tf提供的自动求导函数
x = tf.Variable(initial_value=3.)
with tf.GradientTape() as tape: # 在 tf.GradientTape() 的上下文内,所有计算步骤都会被记录以用于求导
y = tf.square(x)
y_grad = tape.gradient(y,
转载
2024-05-26 16:41:34
38阅读
目录背景问题描述问题解决更快地找到Python问题行利用python3的faulthandler利用gdb调试Python暂时的解决方案启示学会定位问题记住上一步 背景本来开开心心(误)在Ubuntu上调代码,后来在某一次操作后突然发现自己代码开始报Segment Fault错误,而且电脑设置是可以产生core文件的,所以每次都会产生一个名字类似core_Python_*的core文件,但是自己
转载
2024-05-15 02:05:41
25阅读
1、tf.train.Saver类 tensorflow主要通过train.Saver类来保存和提取模型,该类定义在tensorflow/python/training/saver.py中 Saver的初始化参数如下:__init__(self,
var_list=None, #一个字典,指定保存的对
转载
2024-03-22 16:13:23
47阅读