这篇博客主要目的就是简单地跑一下实验,让下载代码能用预训练模型去测试单个视频,并对结果可视化,从视觉上感受一下这个跟踪算法效果,至于如果要自己训练自己模型该如何准备训练数据,如何设计自己模型,如何训练自己模型,以及如何评估自己模型等,这些问题都将在后面的系列博客中慢慢道来。1: SiameseFC-TensorFlow环境配置可参考源码中说明,这里将截图放在这里,大家自行准备可运
转载 2024-09-28 13:04:18
82阅读
一、如何在Ubuntu上编辑和运行TensorFlow包下代码(1)使用vim编辑器编辑,终端运行代码 该方法首先需要打开Ubuntu终端,然后输入以下代码进入Anaconda管理下安装了TensorFlowPython环境:zlt@zlt-virtual-machine:~/download/MyTfTest$ source activate tensorflow 成功运行后即可在前面看
TensorFlow™是一个基于数据流编程(dataflow programming)符号数学系统,被广泛应用于各类机器学习(machine learning)算法编程实现,其前身是谷歌神经网络算法库DistBeliefTensorflow拥有多层级结构,可部署于各类服务器、PC终端和网页并支持GPU和TPU高性能数值计算,被广泛应用于谷歌内部产品开发和各领域科学研究Tensorflow
数据集:minist  (我走是本地读取)数据集链接:https://pan.baidu.com/s/1o2faz60YLaba3q7hn_JWqg       提取码:yv3y 代码和数据集放在一个文件下目的:测试服务器是否安装成功cuda和cudnn环境:ubuntu16.04,python3.6,tensorflow-gpu1.10,cuda9.0,cudnn7.4...
原创 2021-11-16 15:17:29
176阅读
TensorFlow 是一个 开源 软件库,用于使用数据流图进行数值计算。换句话说,即是构建深度学习模型最佳方式。本文整理了一些优秀有关 TensorFlow 教程和 项目列表。 一、教程 TensorFlow Tutorial 1 — 从基础到更有趣 TensorFlow 应用 TensorFlow Tutorial 2 — 基于 Google Tensor
tensorflow-gpu(cpu)安装教程 由于换过电脑,所以配过多次tensorflow环境,以前同样步骤,但是或多或少都遇到抗.看过许多网上关于cpu/gpu版本教程,主要是gpu版本安装,因为涉及tensorflow-gpu版本号和cuda号和cudnn版本,以及自己电脑显卡能支持cuda,***总结***网上大部分gpu环境教程,主要分以下几步: (1)根据自己电脑显卡支持
Tensorflow代码笔记(一)tf.app.run函数入口,类似于c/c++中main(),大概意思是通过处理flag解析,然后执行main函数。 有两种情况: · 如果你代码入口函数不叫main(),而是一个其他名字函数,如test(),则你应该这样写入口tf.app.run(test) · 如果你代码入口函数叫main(),则你就可以把入口写成tf.app.run()tf.
转载 2024-03-19 08:27:39
68阅读
一、TensorFlow运行模型——会话1、通过创建会话(session)来执行定义好运算# 创建一个会话 sess = tf.Session() # 使用这个创建好会话来得到关心运算结果。比如可以调用sess.run(result) sess.run(...) # 关闭会话使得本次运行中得到资源可以被释放 sess.close()通过Python上下文管理器机制,只要将所有的计算放在
新手小白安装过程中遇到种种问题,大概花了两天时间去安装tensorflow-gpu,其他相关概念在这里就不多提了,直接就是进入安装需要。这里安装tensorflow-gup==1.9.0版本,对应python是3.6。一、确定自己显卡支持CUDA1、查看自己显卡:设备管理器-显示适配器 2、找到对应显卡:https://developer.nvidia.com/cuda-gpus二、
本文是针对谷歌Transformer模型解读,另外,针对Kyubyong实现tensorflow代码进行解读,代码地址https://github.com/Kyubyong/transformer 本文是针对谷歌Transformer模型解读,根据我自己理解顺序记录。另外,针对Kyubyong实现tensorflow代码进行解读,代码地址ht
转载 2024-05-09 09:31:10
49阅读
得益于令人难以置信多元化社区,TensorFlow 已成长为世界上最受喜爱和广泛采用 ML 平台之一。该社区包括:研究人员(例如,预测地震余震和检测乳腺癌)。开发人员(例如,构建应用程序来识别患病植物并帮助人们减肥)。公司(例如,通过eBay、Dropbox和AirBnB来改善他们客户体验)。 还有许多其他人。11 月,2019年TensorFlow庆祝了它 3 岁生日,回顾了这些年来添加
1 创建1.1 constant()方法Int [1]: import tensorflow as tf Int [2]: tf.constant(1) # 创建一个整型张量 Out [2]: <tf.Tensor: id=0, shape=(), dtype=int32, numpy=1> Int [3]: tf.constant(1.) # 创建一个浮点型张量 Out
1. 开门见山  其实只是刚入门,并不理解博大精深tensorflow,只是想取个文艺点名字。写这篇博客主要是记录下学习tensorflow会掌握哪些才够完成一些项目。首先想吐槽一下这个号称最火深度学习框架,真的太不友好。我见过很多phd大佬吐槽过这个东西,莫名出现问题,而我,当然也是深受其害,作为一个用了挺久无脑Keras的人来说更是如此。因此个人觉得,tensorflow 应该要感受到
转载 2024-09-06 09:19:31
27阅读
TensorFlow-CPU与GPU安装教程TensorFlow-CPU1.下载Anaconda2. 下载Vsual C++3. 安装TensorFlow-CPUTensorFlow-GPU1.检测当前GPU驱动版本是否满足大于410版本2.下载Vsual C++3.下载Anaconda或Miniconda4.替代.condarc配置文件4.安装Tensorflow-GPU 写在前面:CPU和
转载 2024-02-29 23:46:23
112阅读
之前看了一波深度学习理论知识。总感觉哪里不对,昨天发现,一直看错书了,应该从tensorflow这类书实践书看起。今天在windows10上搭建了一个简单深度学习环境。跑一些小程序练练手。正文:深度学习环境:pythonanacondatensorflowkeras其实之前也打算装过tensorflow。但是没有成功。感觉这几个环境最难装tensorflow。如果不用GPU加速的话,不用安
1、TensorFlow Hello Worldimport tensorflow.compat.v1 as tf tf.disable_eager_execution() # 创建一个常量运算,将其作为一个节点加入到默认计算图中 hello = tf.constant("Hello World") # 创建一个对话 sess = tf.Session() #运行并获得结果 print(s
**在colab下运行tensorflow版本faster- rcnn**操作流程以下是具体代码实现具体代码实现装载google云盘在云盘中创建文件夹coco,以便于稍后进行存放文件,可以利用如下代码创建// !mkdir -p /content/drive/My Drive/coco/获取faster-rcnn代码// 获取tf版faster-rcnn代码 !git clone htt
前言:之前在使用tensorflowslim.nets模块进行finetune resnet50时,遇到了训练时准确率和loss值正常,但在验证和测试时准确率很低问题,具体表现是测试时batch size越小,测试准确率越低。但按理说batchsize在测试时应该只影响了运行时间,不应该对准确率产生影响,这个问题困扰了我一段时间,最后终于解决。。。在这里记录一下解决这个问题过程以及注意事
转载 2024-09-06 21:33:50
0阅读
摘要:Tensorflow Distributions提供了两类抽象:distributions和bijectors。distributions提供了一系列具备快速、数值稳定采样、对数概率计算以及其他统计特征计算方法概率分布。bijectors提供了一系列针对distribution可组合的确定性变换。1、Distributions1.1 methods一个distribution至少实现以
转载 2024-05-06 14:04:10
25阅读
 TensorFlow 2.0已在十一发布,香不香?好用不好用?现在,这里有一份全中文教学快速上手指南,基于Keras和Eager Execution(动态图)模式,北大学霸出品,获得TensorFlow官方认可。其名为,简单粗暴TensorFlow 2.0。话不多说,一起来看看吧。简洁高效指导手册TensorFlow 2.0,摈弃了TensorFlow 1.x诸多弊病,进一步整合
  • 1
  • 2
  • 3
  • 4
  • 5