1.将数据集打散并依旧保留对应标签:idx = tf.range(10) idx = tf.random.shuffle(idx) a = tf.gather(a, axis= , idx) b = tf.gather(b, axis= , idx)2.通过转置来改变tensorcontent:a = tf.random.normal([4, 28, 28, 3]) # [b, w, h, c]
ASPP(Atrous Spatial Pyramid Pooling)是一种用于图像分割技术,通常与深度学习框架如 PyTorch 结合使用,以增强图像特征多尺度提取能力。本文将详细记录如何在 PyTorch 中实现 ASPP 代码全过程,包括环境准备、集成步骤、配置详解、实战应用、排错指南和性能优化。 ## 环境准备 为确保我们能够顺利运行 ASPP 模型,首先需要准备好开发环境。下
原创 6月前
151阅读
Tensorflow代码笔记(一)tf.app.run函数入口,类似于c/c++中main(),大概意思是通过处理flag解析,然后执行main函数。 有两种情况: · 如果你代码入口函数不叫main(),而是一个其他名字函数,如test(),则你应该这样写入口tf.app.run(test) · 如果你代码入口函数叫main(),则你就可以把入口写成tf.app.run()tf.
转载 2024-03-19 08:27:39
68阅读
一、TensorFlow运行模型——会话1、通过创建会话(session)来执行定义好运算# 创建一个会话 sess = tf.Session() # 使用这个创建好会话来得到关心运算结果。比如可以调用sess.run(result) sess.run(...) # 关闭会话使得本次运行中得到资源可以被释放 sess.close()通过Python上下文管理器机制,只要将所有的计算放在
本文是针对谷歌Transformer模型解读,另外,针对Kyubyong实现tensorflow代码进行解读,代码地址https://github.com/Kyubyong/transformer 本文是针对谷歌Transformer模型解读,根据我自己理解顺序记录。另外,针对Kyubyong实现tensorflow代码进行解读,代码地址ht
转载 2024-05-09 09:31:10
49阅读
这篇博客主要目的就是简单地跑一下实验,让下载代码能用预训练模型去测试单个视频,并对结果可视化,从视觉上感受一下这个跟踪算法效果,至于如果要自己训练自己模型该如何准备训练数据,如何设计自己模型,如何训练自己模型,以及如何评估自己模型等,这些问题都将在后面的系列博客中慢慢道来。1: SiameseFC-TensorFlow环境配置可参考源码中说明,这里将截图放在这里,大家自行准备可运
转载 2024-09-28 13:04:18
82阅读
1. 开门见山  其实只是刚入门,并不理解博大精深tensorflow,只是想取个文艺点名字。写这篇博客主要是记录下学习tensorflow会掌握哪些才够完成一些项目。首先想吐槽一下这个号称最火深度学习框架,真的太不友好。我见过很多phd大佬吐槽过这个东西,莫名出现问题,而我,当然也是深受其害,作为一个用了挺久无脑Keras的人来说更是如此。因此个人觉得,tensorflow 应该要感受到
转载 2024-09-06 09:19:31
27阅读
一、如何在Ubuntu上编辑和运行TensorFlow包下代码(1)使用vim编辑器编辑,终端运行代码 该方法首先需要打开Ubuntu终端,然后输入以下代码进入Anaconda管理下安装了TensorFlowPython环境:zlt@zlt-virtual-machine:~/download/MyTfTest$ source activate tensorflow 成功运行后即可在前面看
摘要:Tensorflow Distributions提供了两类抽象:distributions和bijectors。distributions提供了一系列具备快速、数值稳定采样、对数概率计算以及其他统计特征计算方法概率分布。bijectors提供了一系列针对distribution可组合的确定性变换。1、Distributions1.1 methods一个distribution至少实现以
转载 2024-05-06 14:04:10
25阅读
x = tf.placeholder(tf.float32, [None, 784])x isn't a specific value. It's a placeholder, a value that we'll input when we ask TensorFlow to run a computation. We want to be able to input any
转载 2024-04-30 05:59:33
35阅读
RCNN算法tensorflow实现这个算法思路大致如下: 1、训练人脸分类模型 输入:图像;输出:这张图像特征 1-1、在Caltech256数据集上pre-trained,训练出一个较大图片识别库; 1-2、利用之前人脸与非人脸数据集对预训练模型进行fine tune,得到一个人脸分类模型。 2、训练SVM模型(重新定义正负样本)输入
转载 2024-02-26 20:35:31
26阅读
# -*- coding:utf-8 -*-from __future__ import print_function'''HelloWorld example using TensorFlow library....
转载 2017-07-19 19:51:00
181阅读
2评论
lstm实现困惑度困惑度是什么具体实现数据准备vocabWord2idbatch_data模型配置 困惑度是什么通常在永ngram语言模型时候,通常用困惑度来描述这个query通顺程序,ngram是一个统计概率模型。 但是ngram模型有一个缺点,就是通常我们使用是2-gram或者3-gram,那么对于大于3个字或词以上信息就不能捕获到了,但是循环神经网络可以将任意长度信息都捕获到,
10月26日,深度学习元老HintonNIPS2017 Capsule论文《Dynamic Routing Between Capsules》终于在arxiv上发表。今天相关关于这篇论文TensorFlow\Pytorch\Keras实现相继开源出来,让我们来看下。论文地址:https://arxiv.org/pdf/1710.09829.pdfCapsule 是一组神经元,其活动向量(act
转载 2024-08-21 09:43:39
53阅读
使用 TensorFlow, 你必须明白 TensorFlow:使用图 (graph) 来表示计算任务.在被称之为 会话 (Session)使用 tensor 表示数据.通过 变量 (Variable)使用 feed 和 fetch 可以为任意操作(arbitrary operation) 赋值或者从其中获取数据.op (operation 缩写). 一个 op
一 摘要      2015年11月9日,Google发布深度学习框架Tensorflow并宣布开源,迅速得到广泛关注,在【图像分类】、【音频处理】、【推荐系统】和【自然语言处理】等场景下大面积被推广。Tensorflow系统更新速度非常之快,官方文档教程也比较齐全,上手快速,简单易用,支持Python和C++接口。本文依据对Tensorflow(简称
转载 2024-04-24 12:09:31
47阅读
之前写一篇SSD论文学习笔记因为没保存丢掉了,然后不想重新写,直接进行下一步吧。SSD延续了yolo系列思路,引入了Faster-RCNN anchor概念。不同特征层采样,多anchor. SSD源码阅读 https://github.com/balancap/SSD-Tensorflowssd_vgg_300.py为主要程序。其中ssd_net函数为定义网络结构。先简单解释下SSD是如何
转载 2024-05-19 08:14:28
63阅读
前言:       一般来说,如果安装tensorflow主要目的是为了调试些小程序的话,只要下载相应包,然后,直接使用pip install tensorflow即可。      但有时我们需要将Tensorflow功能移植到其它平台,这时就无法直接安装了。需要我们下载相应Tensorflow源码,自已动手编译了。正文:
转载 2023-09-27 08:17:06
82阅读
关于什么是 LSTM 我就不详细阐述了,吴恩达老师视频课里面讲很好,我大概记录了课上内容在吴恩达《序列模型》笔记一,网上也有很多写解释多问题,网上大部分博客都没有讲清楚 cell 参数设置,在我看了N多篇文章后终于搞明白了,写出来让大家少走一些弯路吧! 如上图是一个LSTM单元,可以应用到多种RNN结构中,常用应该是 one-to-many 和 many-to-many 下面介
论文下载地址 cosface,tensorflow代码下载地址:cosface code。模型训练通过train_multi_gpu.py实现,数据加载部分同之前介绍方法类似,这里重点说一下网络结构和损失函数部分代码,默认采用网络结构是sphere_network,其主要实现在sphere_network.pyinfer函数:def infer(input,embedding
转载 2024-08-11 20:20:55
171阅读
  • 1
  • 2
  • 3
  • 4
  • 5