写在前面这个系列博客会具体讲讲怎么用tensorflow去搭建网络,其中一些细节例如如何加载数据集、需要哪些包可以参考我的其他博客。以此,来增加自己的编程能力。也会解读一些keras源码等一、神经网络中有哪些层点我从连接方式来说:全连接Dense、Conv2D、Conv2DTranspose、RNN等主要的功能层:BN层,激活函数层、Input层,Lambda层、Dropout层、Flatten层
转载
2024-08-11 20:21:17
0阅读
步骤:数据处理:将数据喂给网络搭建网络模型Loss训练模型测试第一步 数据处理将数据集处理成FTRecord的标准格式(也可以是其它格式,详见下面的参考链接)将数据传给TensorFlowTensorFlow 读取自己的数据集数据存储形式如下:Train_TFRecords_00123
Train_TFRecords_00017
......数据存储地址TFRecordPath;用os.listd
转载
2024-02-28 14:18:16
35阅读
首先先介绍一下knn的基本原理:KNN是通过计算不同特征值之间的距离进行分类。整体的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。K通常是不大于20的整数。KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。KNN算法要解决的核心问题是K值选择,
转载
2024-03-06 13:04:46
79阅读
TensorFlow版本MTCNN解析整体架构样本生成部分三个模型的训练部分推理部分在训练时候为什么用小图片,而不用全图?会不会遗漏掉某些人脸? 整体架构针对这篇文章的读者,默认为是已经对MTCNN有了基本了解的,若对MTCNN还未了解的,可自行了解。 分为几个部分:样本生成部分三个模型的训练部分推理测试部分样本生成部分PNet的样本生成 根据GT数据,生成正样本,已经中间样本;随机生成负样本;
转载
2024-06-21 10:24:37
24阅读
DCGAN网络的结构: 代码包括:数据:1 import tensorflow as tf
2 import multiprocessing
3
4
5 def make_anime_dataset(img_paths, batch_size, resize=64, drop_remainder=True, shuffle=True, repeat=1):
转载
2024-04-25 15:34:05
42阅读
基本概念1、 基于 Tensorflow 的 NN:用张量表示数据,用计算图搭建神经网络,用会话执行计算图,优化线上的权重(参数),得到模型。2、 张量:张量就是多维数组(列表),用“阶”表示张量的维度。 0 阶张量称作标量,表示一个单独的数; 如:S=123 1 阶张量称作向量,表示一个一维数组; 如:V=[1,2,3] 2 阶张量称作矩阵,表示一个二维数组,它可以有 i 行 j 列个元素,每个
量子系统复杂,暴力计算无效,原有张量网络(Tensor Network)难以广泛规模使用,让开发高温超导体等复杂问题受限于此。现在,谷歌出手了。联合Perimeter理论物理研究所和谷歌 X,开发全新物理和机器学习库TensorNetwork,用于提高张量计算的效率,现在已经开源。这一计算库使用TensorFlow作为后端,并针对GPU处理进行了优化,与CPU上相比,可以实现高达100倍的加速。谷
转载
2024-09-18 15:35:13
38阅读
对于最流行的机器学习框架来说,TensorFlow 2.0 将是一个重要的里程碑:大量的更改即将到来,所有的一切都以人人可以使用 ML 为目标。但是,这些更改要求老用户完全重新学习如何使用框架:本文介绍了 1.x 和 2.x 版本之间的所有(已知的)差异,主要是思维方式的改变,并着重介绍了新实现的优缺点。对于新手来说,本文也是一个很好的起点:现在就开始以 TensorFlow 2.0 的方式思考,
转载
2024-05-01 12:39:40
54阅读
一、神经网络的实现过程1、准备数据集,提取特征,作为输入喂给神经网络 2、搭建神经网络结构,从输入到输出 3、大量特征数据喂给 NN,迭代优化 NN 参数 4、使用训练好的模型预测和分类 二、前向传播 前向传播就是搭建模型的计算过程
转载
2023-10-26 19:45:35
113阅读
原理生成式对抗网络是一种无监督的生成式模型(Generative Adversarial Nets,GAN)GAN 中主要包括两个核心网络:1)生成器:通过学习,生成可以以假乱真的样本G2)判别器:对真实样本和生成的假样本进行判别D两个生成器进行博弈,相互进步,能力逐渐提高并收敛Gan的训练过程比较困难,需要注意很多细节,才可以生成高质量的图片:1)恰当使用BN,LeakyRelu2)使用stri
转载
2024-04-16 15:05:41
71阅读
公司后台查询数据时,如果选择的时间段过长,就会遇到"请求超时"的的问题。造成这一问题的原因大概有以下几点:1,Asp.net请求超时 2,Webservice请求超时 3,IIS请求超时 4,数据库连接超时 知道原因后,就可以解决问题了。Asp.net中关于超时的设置:在web.config 里<system.web>节点
tensorflow 自带物体检测模型api使用概述环境model下载以及依赖项的安装编译为model的文件添加环境变量跑demo参考 不知道从什么时候开始,tensorflow自带的已训练好的模型从库里被单独分出来,即自成一个单独的 库 概述集model库,该库包括很多已经训练好的网络模型,可以直接用. 本文主要告诉大家以下内容:手把手教你搭建使用Object Detection API所需
本文不赘述神经网络的原理,只是简单介绍如何用python3.0 |tensorflow2.0框架搭建一个简单的神经网络,进行简单的图像识别。本文分为三个部分,第一部分先po出总体代码,第二部分分段详解每段代码,第三部分总结。参考:1 tf.Keras - 简书 (jianshu.com)2Fashion-MNIST:替代MNIST手写数字集的图像数据集 - 知乎 (zhihu.
转载
2023-10-17 05:38:54
179阅读
1.placeholder机制作用:解决多次迭代中,计算图过大的问题。 |- 如果不使用placeholder机制,多次迭代中,多个特征向量,对应多个计算图。计算图利用率低。 |- 使用placeholder机制,多次迭代中,多个特征向量,对应一个计算图。计算图利用率高。特点: |- 是一种张量,因此它的类型可以在声明的
转载
2023-08-18 23:41:34
107阅读
最近在学习郑泽宇老师的《Tensorflow实战Google深度学习框架》,书中样例代码写的非常简洁、易懂,而且逻辑性很强,在这里进行记录一下。 以下样例代码使用tensorflow框架构建两层全连接神经网络,识别MNIST手写数字数据集。其中用到了一些优化方法:使用滑动平均模型控制权值参数的
转载
2023-12-06 14:52:36
90阅读
目录一,TensorFlow2.0搭建神经网络八股1)import 【引入相关模块】2)train,test 【告知喂入网络的训练集测试集以及相应的标签】3)model=tf.keras.models.Sequential 【在Sequential中搭建网络结构,相当于走一遍前向传播】4)model.compile 【告知训练时选择哪种优化器,选择哪
转载
2024-04-21 09:30:47
217阅读
近期, JoinQuant 金融终端上线了python3.6版本,并且为小伙伴们带来了诸多重要更新:期权数据;支持 Tick 回测功能;研究示例文件增加了 TensorFlow、PyTorch 的安装教程;支持 pip 一键安装 TensorFlow、PyTorch、Keras 等深度学习库;组合优化更新:支持风险因子暴露限制、换手率限制、流动性限制、流动性限制、行业偏离度限制、追踪误差限制、换手
转载
2023-12-25 23:17:56
54阅读
一 通过Tensorflow训练神经网络模型 上一节介绍了如何通过Tensorflow中变量表示神经网络中的参数,并且给出了一个样例完成了神经网络的前向传播过程。在这份代码中,所有【变量】的取值都是【随机】的。在使用【神经网络】解决实际的【分类】和【回归问题】时,需要更好的设置【参数】的【取值】。在本节,我们将简答的介绍使用【监督学习】
转载
2023-11-24 23:03:11
51阅读
使用Tensorflow建造神经网络一、Tensorflow建造神经网络添加一层神经元的函数1. 定义数据 — 输入层2. 创建隐藏层和输出层3. 误差计算4. 误差传播5. 参数初始化6. 开始模拟7. 完整代码二、【附录】1. 关于`reduction_indices`2. 关于`tf.nn.relu`3. 关于`numpy.linspace()`4. 关于`tf.train.Gradien
转载
2023-06-29 12:06:22
272阅读
最近因为项目要求,需要把模型的训练和测试过程分开,这里主要涉及两个过程:训练图的存取和参数的存取。 以下所有/home/yy/xiajbxie/model是我的模型的存储路径,将其换成你自己的即可。tf.train.Saver()Saver的作用中文社区已经讲得相当清楚。tf.train.Saver()类的基本操作时save()和restore()函数,分别负责模型参数的保存和恢复。参数保存示例如
转载
2024-04-24 14:06:40
29阅读