最新tensorflow采用了keras封装,和古早写法相比变化很大,但是用起来确更加方便了,恰逢最近需要倒腾tensorflow,所以记录一下。这是一个系列文章,将从浅入深地介绍新tensorflow用法,文章列表: 林青:学习tensorflow(00)--从源代码编译tensorflowzhuanlan.zhihu.com 林青:学习tensorfl
基本概念1、 基于 Tensorflow NN:用张量表示数据,用计算图搭建神经网络,用会话执行计算图,优化线上权重(参数),得到模型。2、 张量:张量就是多维数组(列表),用“阶”表示张量维度。 0 阶张量称作标量,表示一个单独数; 如:S=123 1 阶张量称作向量,表示一个一维数组; 如:V=[1,2,3] 2 阶张量称作矩阵,表示一个二维数组,它可以有 i 行 j 列个元素,每个
1. Batch Normalization对卷积来说,批量归一化发生在卷积计算之后、应用激活函数之前。训练阶段:如果卷积计算输出多个通道,我们需要对这些通道输出分别做批量归一化,且每个通道都拥有独立拉伸和偏移参数,并均为标量。假设小批量中有 m 个样本。在单个通道上,假设卷积计算输出高和宽分别为p和q。我们需要对该通道中m×p×q个元素同时做批量归一化。对这些元素做标准化计算时,我们使用
转载 2024-05-06 17:33:40
46阅读
首先对tensorflow模型有个直观了解:我们逐个介绍:四个文件,分别是checkpoint(记录模型文件列表)  .data和.index(存储训练好参数包括weight,biase,etc)、               &nbs
转载 4月前
18阅读
TensorFlow - 神经网络flyfishTensorFlow图 Andrew Ng介绍神经网络是在模仿大脑中神经元或者神经网络。神经元是一个计算单元,它从输入神经接受一定数目的信息并做一些计算然后将结果通过它轴突传送到其他节点或者大脑中其他神经元。一是神经元有细胞主体, 二是神经元有一定数量输入神经,这些输入神经叫做树突。可以把它们想象成输入电线,它们接收来自其他神经元信息
转载 2024-04-07 21:18:11
44阅读
网络容器 通过Keras提供网络容器Sequential将多个网络封装成一个大网络模型,只需要调用网络模型实例一次即可完成数据从第一到最末顺序传播运算。 (1)Sequential容器封装为一个网络:import tensorflow as tf from tensorflow.keras import layers,Sequential model = Sequential([#封
在网上查如何进行神经风格迁移时候,发现大多数人都是使用迁移学习来网络。当然,迁移学习导入已经训练好网络进行训练是非常方便且快速,但是有时候我们可能会想自己训练一个网络进行神经风格迁移。所以在这篇文章中,我们尝试使用自定义 GoogLeNet 网络模型进行神经风格迁移。 PS:对神经风格迁移原理感兴趣可以参考:Tensorflow2.0之神经风格迁移。 下面直接贴上代码并对其中不好理解
   前些日子在 win10 下安装TensorFlow 1.2 GPU版本,但是目前在跑一些官方demo时候发现1.2版本不支持了。由于电脑自带GTX1051 Ti 想充分利用资源就安装了一个前几天最新发布1.6 GPU版本TensorFlow。    首先,你得可,不然后面安装下载要用东西会很慢。。。嗯,我就不多说了吧。 &n
1.物体识别效果演示 图片选自 Andrew Carter 博客 Annotating Large Datasets with the TensorFlow Object Detection API2.物体识别概述关于 Object Dection 理论说起来太复杂了,可以自行参考 CS231n 教程,或者通过这篇文章 A Brief History of CNNs in Image Segm
折腾4天终于装好 tensorflow-gpu 版,此教程一是按照实际操作给自己做个记录,二是给各位一个参考尽量节省安装时间。 硬件:CPU: i5-7400,GPU: GeForce GTX1050Ti系统:Ubuntu 16.04, cuda 8.0, cudnn v5 1 安装前准备工作1.1 检查自己 GPU 是否满足安装条件  打开终端输入以下指令:lspci |
经典网络架构 Alexnet卷积神经网络近代史开篇之作目前卷积核越小越好,步长小点总共是8网络 5卷积3全连接VGG网络用特征图个数来弥补特征图损失VGG比AL效果好,15%训练时间是一天为单位深度学习:用更深网络结构去提取原始数据特征,16时候比30效果好深度学习层数应该越深越好?卷积在增加过程中,层数并不是越多越好。新曙光-残差网络Resneterr
# 如何检查 TensorFlow 是否使用 GPU 在深度学习实际应用中,TensorFlow 是一个非常流行框架,它能够支持 CPU 和 GPU 计算。如果你想充分利用 CUDA 加速来提高训练模型速度,则检查 TensorFlow 是否成功使用 GPU 是至关重要。本文将逐步介绍如何检查 TensorFlow 是否使用 GPU,并提供实际代码示例以便读者了解。 ## 1. 环境
原创 8月前
463阅读
一、多层前馈神经网络要解决非线性可分问题,需考虑使用多层功能神经元。输入和输出之间神经元,被称为隐或隐含(hidden layer)。隐含和输出神经元都是拥有激活函数功能神经元。更一般,常见神经网络如下图所示层级结构:图1 多层前馈神经网络结构示意图每层神经元与下一神经元全互连,神经元之间不存在同连接,也不存在跨连接。这样神经网络结构通常称为“多层前馈神经网络”(
一、简介VGG网络在2014年 ILSVRC localization and classification 两个问题上分别取得了第一名和第二名。VGG网络非常深,通常有16-19,如果自己训练网络模型的话很浪费时间和计算资源。因此这里采用一种方法获取VGG19模型模型数据,从而能够更快速应用到自己任务中来,本文在加载模型数据同时,还可视化图片在网络传播过程中,每一输出特征图。让我
转载 2024-04-29 08:51:31
80阅读
在广告/推荐/搜索场景,目前主流算法采用embedding+DNN模型结构,随着数据量越来越多,单机训练已经无法满足实时要求。针对广告/推荐场景,一般采用Parameter Server方式进行分布式训练,简称ps,ps可以同时做到对数据和模型并行训练。Parameter Server直译就是参数服务器,这里参数,指的是模型权重,以及中间过程变量。最近一段时间,我了解和使用
这篇文章将从零开始指导阅读者利用tensorflow搭建一个神经网络,若是有问题还请指出,或直接再评论区更正。若是对前面的内容不感兴趣可直接跳至神经网络处。 文章目录一. 安装tensorflow二. tensorflow是什么1. Hello TensorFlow!2. 张量3. tensorflow基本概念①. 算子②. 节点③. 边④. 会话三. 从代码开始接触,由浅入深1. 数据类型与逻
VGGNet探索了卷积神经网络深度与性嫩之间关系,通过反复堆叠3×3卷积核和2×2池化构建了16卷积神经网络。由上图所知,VGG一共有五段卷积,每段卷积之后紧接着最大池化,作者一共实验了6种网络结构。分别是VGG-11,VGG-13,VGG-16,VGG-19,网络输入是224*224大小图像,输出是图像分类结果。下面我们主要针对tensorflow
麻烦大家给我点个赞,就是那种让我看起来,写还不错样子!拜托了!!o(´^`)o想要加入AI知识分享会或者机器学习交流群朋友请关注我微信公号,关注后会有我微信号,加我微信,拉你进群本专栏会陆续收录别人投稿,我也欢迎大家来投稿,但是投稿内容质量本人不作保证卷积神经网络入门讲解目录:(1)CNN入门讲解:CNN起源(未更)(2)CNN入门讲解:CNN输入是什么以及数据预处理(Data Pre
# TensorFlow 查看网络每一架构 随着深度学习快速发展,TensorFlow 作为一个强大深度学习框架,被广泛应用于各类项目中。当我们构建一个深度学习模型时,了解模型结构(即网络每一架构)对于调试和优化非常重要。本文将深入探讨如何TensorFlow 中查看网络每一架构,并提供相关代码示例。 ## 理解模型架构 在深度学习中,模型架构指的是模型中各个及其连接
原创 2024-10-11 09:15:55
175阅读
写在前面写这篇文章主要是为了整理一下之前配置环境埋下坑,以及加深一下印象,为了以后当需要更改环境时,能够更快地配置好;或者当环境出问题时候,更快地定位出问题。1.anaonda 配置tensorflow环境(2.x) conda创建一个虚拟环境conda create -n py37 python=3.72.激活环境`conda activate py37`3.安装tensorflow-gpu
  • 1
  • 2
  • 3
  • 4
  • 5