这段一直在用Tensorflow来做深度学习上的相关工作,然后对Tensorflow读取数据的方式进行实现。特地总结一下。首先是读取二进制图片数据,这里采用的是CIFAR-10的二进制数据 ## 1.CIFAR-10数据集 CIFAR-10数据集合是包含60000张`32*32*3`的图片,其中每个类包含6000张图片,总共10类。在这60000张图片中50000张是训练集合,10000张是测试
1 什么是GCN:了解GCN之前必须对离散卷积(或者说CNN中的卷积)有一个明确的认识:这篇博客介绍了卷积的简单理解,离散卷积本质就是一种加权求和。以下介绍离散卷积的篇幅参考了这篇文章的第一部分:如图1所示,CNN中的卷积本质上就是利用一个共享参数的过滤器(kernel),通过计算中心像素点以及相邻像素点的加权和来构成feature map实现空间特征的提取,当然加权系数就是卷积核的权重系数。那么
日萌社人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)Encoder编码器-Decoder解码器框架 + Attention注意力机制Pytorch:Transformer(Encoder编码器-Decoder解码器、多头注意力机制、多头自注意力机制、掩码张量、前馈全连接层、规范化层、子层连接结构、pyitcast)
转载
2024-09-12 11:48:57
37阅读
一、线性回归原理 根据数据建立回归模型,w1x1+w2x2+……+wnxn+b = y,通过真实值与预测值之间建立误差,使用梯度下降优化得到损失最小对应的权重和偏置。最终确定模型的权重和偏置参数。最后可以用这些参数进行预测。 二、实现方式 该部分采用python编程语言实现线性回归,用pycharm导入tensorflow环境,编写完成后,并执行代码,用anaconda prompt命窗口,用ac
转载
2024-03-07 13:30:16
266阅读
一、简介 上一篇中我们较为详细地铺垫了关于RNN及其变种LSTM的一些基本知识,也提到了LSTM在时间序列预测上优越的性能,本篇就将对如何利用tensorflow,在实际时间序列预测任务中搭建模型来完成任务,若你对RNN及LSTM不甚了解,请移步上一篇数据科学学习手札39; 二、数据说明及预处理2.1 数据说明 我们本文使用到的第一个数据来自R中自带的数据集AirPassengers
转载
2024-03-26 11:21:16
28阅读
nan表示的是无穷或者是非数值,比如说你在tensorflow中使用一个数除以0,那么得到的结果就是nan。在一个matrix中,如果其中的值都为nan很有可能是因为采用的cost function不合理导致的。当使用tensorflow构建一个最简单的神经网络的时候,按照tensorflow官方给出的教程:http://wiki.jikexueyuan.com/project/tensorflo
转载
2024-08-13 18:59:22
35阅读
数据读取TensorFlow程序读取数据一共有3种方法:供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据。从文件读取数据: 在TensorFlow图的起始, 让一个输入管线从文件中读取数据。预加载数据: 在TensorFlow图中定义常量或变量来保存所有数据(仅适用于数据量比较小的情况)。目录数据读取供给数据(Feeding)从文件读取数据
文件
(说明下,本篇的源码有点问题导致预测的温度有问题,请继续往后面的章节看,有原因和解决办法)一、前言最近人工智能、深度学习又火了,我感觉还是有必要研究一下。三年前浅学了一下原理没深入研究框架,三年后感觉各种框架都成熟了,现成的教程也丰富了,所以我继续边学边写。原教程链接:第一章:tensorflow安装与简介课程简介_哔哩哔哩_bilibili所以准备出个系列的教程,给不耐烦看视频或者只是想浅了解一
转载
2024-08-21 11:00:36
26阅读
数据概览与任务描述: 数据集是精简排序过的,我们唯一需要用到的属性就是[‘Lane 1 Flow (Veh/5 Minutes)’]。 任务就是用前12个连续时刻的状态数据[St0,St1,…,St11]预测第13个时刻的状态pSt12。数据集处理我就min-max归一化了一下,没特别处理。其中lags=12就是时间步,也就是time_step,所有数据都被我做成了三维的矩阵,与LSTM的输入输出
转载
2024-03-26 08:13:58
26阅读
该数据集包含14个不同的特征,例如气温,大气压力和湿度。 获取数据from __future__ import absolute_import, division, print_function, unicode_literals
try:
# %tensorflow_version only exists in Colab.
%tensorflow_version
转载
2024-02-26 06:32:18
68阅读
介绍本系列将介绍如何在阿里云容器服务上运行Kubeflow, 本文介绍如何使用TensorFlow Serving加载训练模型并且进行模型预测。TensorFlow Serving简介TensorFlow Serving是Google开源的一个灵活的、高性能的机器学习模型服务系统,能够简化并加速从模型到生产应用的过程。它除了原生支持TensorFlow模型,还可以扩展支持其他类型的机器学习模型。在
转载
2024-05-10 18:46:39
53阅读
目标:youtubeNet通过训练tensorflow2时设置不同的激活函数,训练和预测采用不同的分支,然后可以在训练和测试时,把模型进行分离,得到训练和预测时,某些层的参数不同。可以通过类似迁移学习的办法实现。 第二,获取训练模型的参数。获取模型参数: 比较简单,就是调用model.get_weights()。也可以用精确定位到某层,得到 w_dense4 =model.get_layer(
转载
2024-03-29 08:14:23
94阅读
搭建普通的卷积CNN网络。 nan表示的是无穷或者是非数值,比如说你在tensorflow中使用一个数除以0,那么得到的结果就是nan。在一个matrix中,如果其中的值都为nan很有可能是因为采用的cost function不合理导致的。 当使用tensorflow构建一个最简单的神经网络的时候,按照tensorflow官方给出的教程:https://www.tensorflow.o
目录一、基础理论1、单词感知器介绍 2、单词感知器学习规则前向传递(得到输出y) 反向传递(更新权重w)二、实现单层感知器1、初始参数设置 2、正向传播(得到输出y)3、 反向传播(更新权重参数)总代码一、基础理论1、单词感知器介绍 感知器:模拟生物神经网络的人工神经网络结构。w:权值,可以调节神经信号输入值的大小。b:偏置,相当于神经元内部自带的信号。&n
本文涉及到的是中国大学慕课《人工智能实践:Tensorflow笔记》第六讲第5-8节的内容,实现循环神经网络(Recurrent Neural Network,RNN)输入1个字母预测下一个字母和输入4个字母预测下一个字母。这几部分的实际意义并不大,但是可以帮助我们理解RNN的原理。单字母预测实现的思路很简单: (1)将abcde转换为独热码; (2)随机生成三个参数矩阵wxh,whh,why;
转载
2024-03-19 13:35:45
71阅读
在一个坐标系中有一些散点,大致图像如下从图中很明显的可以看出,这些散点近似的符合直线方程 y = w * x + b这时候如果再给定一个x,需要你求出对应的y值,那么这就是线性回归的预测问题 (*1)求解这些问题,首先我们需要知道这个直线方程的参数w、b所对应的值(*2),然后就能轻而易举的计算出y的值了这里,我们把x看作是input(输入),
转载
2024-05-13 15:38:40
84阅读
我们把训练模型建立以后,投入到生产环境的时候,问题来了,一张图片进行预测,tensorflow启动加载模型在进行需要跑好几秒钟,才能得出一个预测值。这在真实环境中是不允许的。因为太慢了,为了找出原因所在,开始了如下的探究和测试。调试确定问题以google-inception模型中的test.py为例,先在测试模型中记录两个时间,最后相互减就得出所用时间,确定在哪一个环节耗时严重。# coding=
转载
2024-04-23 21:05:50
32阅读
对于某⼀个神经元来说,需要初始化的参数有两类:⼀类是权重W,还有 ⼀类是偏置b,偏置b初始化为0即可。⽽权重W的初始化⽐较重要,我们着 重来介绍常⻅的初始化⽅式。 1.随机初始化 随机初始化从均值为0
自定义层自定义层需要继承 tf.keras.layers.Layer 类,并重写 __init__ 、 build 和 call 三个方法,如下所示:class MyLayer(tf.keras.layers.Layer):
def __init__(self):
super().__init__()
# 初始化代码
def build(self,
转载
2024-04-05 13:14:34
66阅读
前言在深度学习中,有时候我们需要对某些节点的梯度进行一些定制,特别是该节点操作不可导(比如阶梯除法如),如果实在需要对这个节点进行操作,而且希望其可以反向传播,那么就需要对其进行自定义反向传播时的梯度。在有些场景,如[2]中介绍到的梯度反转(gradient inverse)中,就必须在某层节点对反向传播的梯度进行反转,也就是需要更改正常的梯度传播过程,如下图的所示。在tensorflow中有若干