tensorflow的断点续训2019-09-07顾名思义,断点续训的意思是因为某些原因模型还没有训练完成就被中断,下一次训练可以在上一次训练的基础上继续训练而不用从头开始;这种方式对于你那些训练时间很长的模型来说非常友好。如果要进行断点续训,那么得满足两个条件:(1)本地保存了模型训练中的快照;(即断点数据保存)(2)可以通过读取快照恢复模型训练的现场环境。(断点数据恢复)这两个操作都用到了te
转载
2024-04-29 23:05:50
27阅读
https://github.com/EternityZY/FCN-TensorFlow
原创
2022-03-02 09:34:09
298阅读
https://github.com/EternityZY/FCN-TensorFlow
原创
2021-06-10 18:00:39
421阅读
最近来自韩国的AI研究科学家Junho Kim做了一份易于使用的 TensorFlow 代码集,目前该项目包含一般深度学习架构所需要的代码,例如初始化和正则化、各种卷积运算、基本网络架构与模块、损失函数和其它数据预处理过程。此外,作者还特别增加了对 GAN 的支持,这主要体现在损失函数上,其中生成器损失和判别器损失可以使用推土机距离、最小二乘距离和 KL 散度等。由于内容比较零散就不再这里...
原创
2021-06-29 11:07:20
244阅读
给各位小伙伴们推出几个深度学习框架的资料集锦,统一命名为:XXX-From-Zero-To-One。下面po一幅深度学习框架发展的重要历史点:从上图可知,TensorFlow和PyTorch是目前深度学习框架中的扛把子。当然这个大方向基调很早之前就奠定下来了,毕竟TensorFlow是Google家的,PyTorch是Facebook家的。所以目前已经建立两个开源库:Tens...
原创
2021-06-29 10:47:57
191阅读
给各位小伙伴们推出几个深度学习框架的资料集锦,统一命名为:XXX-From-Zero-To-One。下面po一幅深度学习框架发展的重要历史点:从上图可知,TensorFlow和PyTorch是目前深度学习框架中的扛把子。当然这个大方向基调很早之前就奠定下来了,毕竟TensorFlow是Google家的,PyTorch是Facebook家的。所以目前已经建立两个开源库:TensorFlow-F
原创
2022-04-02 17:34:27
143阅读
这是TensorFlow Lite的实验端口,针对微控制器和其他只有千字节内存的设备。它不需要任何操作系统支持,任何标准的C或C ++库或动态内存分配,因此它的设计甚至可以移植到“裸机”系统。核心运行时在Cortex M3上适合16KB,并且有足够的运算符来运行语音关键字检测模型,总共占用22KB。项目GitHub网站:https://github.com/tensorflow/te...
原创
2021-06-29 10:47:21
171阅读
这是TensorFlow Lite的实验端口,针对微控制器和其他只有千字节内存的设备。它不需要任何操作系统支持,任何标准的C或C ++库或动态内存分配,因此它的设计甚至可以移植到“裸机”系统。核心运行时在Cortex M3上适合16KB,并且有足够的运算符来运行语音关键字检测模型,总共占用22KB。 项目GitHub网站:https://github.com/tensorflow/t
原创
2022-04-02 17:34:14
185阅读
github无法访问或者访问速度过慢,可以访问https://gitee.com/创建gitee账号,新建仓库:然后 点击导入 输入github的网址(如https://github.com/tensorflow/docs)即可:通过此种方式访问仓库快,下载也快。如果通过命令!pip install -q git+https://github.com/tensorflow/docs安装tensorflow_docs包失败,将后面网址替换为你克隆后的网址即可安装。...
原创
2021-12-30 16:00:32
944阅读
(1)什么是TensorFlow?TensorFlow是一个基于Python的库, 用于创建机器学习应用程序。它是执行复杂数学的低级工具包。它为用户提供了可定制性选项, 以构建实验性学习体系结构。它还可以帮助用户与他们合作, 并将他们转变为正在运行的软件。它最初由Google Brain团队的研究人员和工程师创建, 并于2015年成为开源。TensorFlow由两个词Tensor和Flow组成;张
转载
2024-04-12 11:34:52
42阅读
本文是针对谷歌Transformer模型的解读,另外,针对Kyubyong实现的tensorflow代码进行解读,代码地址https://github.com/Kyubyong/transformer
本文是针对谷歌Transformer模型的解读,根据我自己的理解顺序记录的。另外,针对Kyubyong实现的tensorflow代码进行解读,代码地址ht
转载
2024-05-09 09:31:10
49阅读
一、概述 人工智能:artificial intelligence 权重: weights 偏差:biases 图中包含输入( input)、塑形( reshape)、 Relu 层( Relulayer)、 Logit 层( Logit layer)、 Softmax、交叉熵( cross entropy)、梯度( gradient)、 SGD 训练( SGD Trainer)等
转载
2024-06-01 22:48:33
45阅读
LSTM是由每个cell组成的,每个cell里有3个门:输入门、遗忘门、输出门;每个cell有4个前馈网络层,其实就是4个激活函数,分别是σ、σ、tanh、σ;这些前馈网络层里有神经元,即隐藏神经元,每个前馈网络层里的隐藏神经元个数都是相同的,即num_units,也写作hidden_size每个ht的向量维度即为hidden_size当前时刻t的输入是xt,xt的维度是input_size,或i
转载
2024-04-02 10:59:53
48阅读
系列文章目录第二章 TensorFlow 深度学习入门之 TensorFlow的核心概念目录系列文章目录文章目录前言一、三种计算图之间的关系二 、静态计算图1 TensorFlow1.0 中的静态计算图2 TensorFlow2.0 中的静态计算图三、 动态计算图四、TensorFlow2.0的Autograph前言计算图由节点(nodes)和线(edges)组成。
转载
2024-04-18 09:20:36
25阅读
TensorFlow是将复杂的数据结构传输至人工智能神经网中进行分析和处理过程的系统。主要用于深度学习(神经网络)方面的研究与应用。Tensorflow适用与Python、C++、Java,本博客中主要运用Python进行深度学习的应用。下面第一步先安装Anaconda【安装】1、进入Tensorflow官网Install->on windows进入后下载Python 3.x版本的2、在安装
转载
2023-07-02 14:56:53
91阅读
文章目录重要概念从可视化开始来个栗子总结参考文献 重要概念首先,了解一下tensorflow中的一些基础的概念:0 tensorflow是一种符号式编程,特点是,网络结构的构建与运行完全分离。1 会话,它是定义图的基础,建立实例sess =tf.Session()后,会生成一张空图,为了实现特定的功能,需要在空图上定义节点与边。2 图,它是tensorlfow的一大特色,实际使用过程中,可以在图
转载
2024-03-26 05:06:40
79阅读
基于KDDCUP99数据集,使用Tensorflow构建MLP,进行入侵检测分类。1、tensorflow系统 是用数据流图(data flow graphs)技术来进行数值计算的。 在Tensorflow中,用计算图来构建网络,用会话来具体执行网络。深入理解了这两点,我想,对于Tensorflow的设计思路,以及运行机制,也就略知一二了。 图(tf.Graph):计算图,主要用于
转载
2024-04-16 18:09:12
40阅读
保存部分训练的模型默认检查点文件目录检查点保存频率从文件恢复模型避免错误恢复 TensorFlow 提供两种模型格式:checkpoint,这是取决于创建模型的代码的格式。SavedModel,这是独立于创建模型的代码的格式。保存部分训练的模型Estimator自动将这些写入硬盘:checkpoints,即训练期间创建的模型的版本。event files,其中包含TensorBoard用于创建
转载
2024-03-23 09:18:24
64阅读
TensorFlow 是由 Google Brain 团队为深度神经网络(DNN)开发的功能强大的开源软件库,其允许将深度神经网络的计算部署到任意数量的 CPU 或 GPU 的服务器、PC 或移动设备上,且只利用一个 TensorFlow API。包括 TensorFlow 在内的大多数深度学习库能够自动求导、开源、支持多种 CPU/GPU、拥有预训练模型,并支持常用的NN架构,如递归神经网络(R
转载
2024-02-26 22:08:30
72阅读
先学习下如何自己完成一个resnet网络用于cifar100训练,后面在使用迁移学习训练。
如果不知道resnet具体的网络结构可以自己学习下,这里只进行实现。1. BasicBlock实现BasicBlock首先是继承layer.Layerclass BasicBlock(layers.Layer):然后重写里面的init和call方法。
1)先在init定义Basic中的基础操作,由上图我们知
转载
2024-03-15 20:13:46
20阅读