这个函数的作用是计算激活函数 relu,即 max(features, 0)。即将矩阵中每行的非最大值置0。
翻译 2018-08-01 14:14:00
131阅读
2评论
import tensorflow as tfimport matplotlib.pyplot as pltx = tf.placeholder(tf.flo
原创 2018-04-12 15:49:48
43阅读
学习深度学习很长一段时间的时间了,也学习了CNN网络,可是总是对卷积核的实际计算不是太了解,按照很多的讲解都是讲解paddin
**计算Leaky ReLU激活函数tf.nn.leaky_relu(features,alpha=0.2,name=None )参数: features:一个Tensor,表示预激活alpha:x<0时激活函数的斜率ame:操作的名称(可选)返回值:激活值** 非饱和激活函数:Leaky ReLU ...
转载 2021-08-08 10:03:00
291阅读
2评论
目录一、函数列表二、重要的API1、tf.nn.sparse_softmax_cross_entropy_with_logits2、tf.nn.softmax3、tf.compat.v1.nn.dropout4、tf.compat.v1.nn.sigmoid_cross_entropy_with_logits5、tf.nn.bias_add6、tf.nn.atrou...
原创 2021-08-13 09:46:19
578阅读
最大的 k 个数,并且返回它们所在位置的索引。#!/usr/bin/env python# -*- coding: utf-8 -*-import tensorflow as tfimport numpy as npinput
转载 2022-08-30 10:30:08
197阅读
tf.nn.bias_add bias_add( value, bias, data_format=None, name=None ) 功能说明: 将偏差项 bias 加到 value 上面,可以看做是 tf.add 的一个特例,其中 bias 必须是一维的,并且维度和 value 的最后一维相同,
转载 2018-08-23 12:00:00
206阅读
2评论
tf.nn.max_pool(value, ksize, strides, padding, name=None) 参数是四个,和卷积很类似: Example:
翻译 2018-08-01 15:59:00
210阅读
2评论
一、函数原型tf.nn.top_k( input, k=1, sorted=True, name=None)为了找到输入的张量的最后的一个维度的最大的k个值和它的下标!如果输入的是一个向量,也就是rank=1,找到最大的k个数在这个向量,则输出最大的k个数字和最大的这k个数字的下标。如果输入的张量是一个更高rank的矩阵,那么我们只要找到每一行的最大...
原创 2021-08-13 09:38:48
745阅读
tf.nn.dropout中参数 keep_prob :每一个元素被保存下的概率。tf.layer.dropout中参数 rate :每一个元素丢弃的概率。在tf.nn.dropout中:def dropout(x, keep_prob, noise_shape=None, seed=None, name=None)x:上一层传下载的tensor。(一般用于全连接层后面)...
原创 2021-11-20 14:56:02
395阅读
nn.ReLU()与F.relu()的区别
原创 2022-08-20 00:35:32
210阅读
原创 2022-08-13 00:31:08
681阅读
tensorflow 在实现 Batch Normalization(各个网络层输出的归一化)时,主要用到以下两个 api: tf.nn.moments(x, axes, name=None, keep_dims=False) ⇒ mean, variance: 统计矩,mean 是一阶矩,variance 则是二阶中心矩 tf.nn.batch_normalization(x, mean, v
转载 2017-04-26 11:41:00
407阅读
tensorflow 在实现 Batch Normalization(各个网络层输出的归一化)时,主要用到以下两个 api: tf.nn.moments(x, axes, name=None, keep_dims=False) ⇒ mean, variance: 统计矩,mean 是一阶矩,variance 则是二阶中心矩 tf.nn.batch_normalization(x, mean, v
转载 2017-04-26 11:41:00
900阅读
2评论
容易忘,记录一下tf.nn.conv1d( value, filters, stride, padding, use_cudnn_on_gpu=None, data_format=None, name=None)value的格式为:[batch, in_width, in_channels]
原创 2022-12-02 16:11:21
263阅读
最后一个 的`num_units n_neurons`相同
转载 2018-11-15 21:11:00
203阅读
2评论
num_units = [200, 100]cells = [tf.nn.rnn_cell.GRUCell(num_units=n) for n in num_units]stacked_rnn_cell = tf.nn.rnn_cell.MultiRNN...
转载 2018-11-15 21:11:00
95阅读
2评论
welcome to my blogtf.nn.embedding_lookup(params, ids)的作用:ids里面是params中的索引, 执行该函数将从params中选出ids索引对应的元素具体地,创建一个形状为(6,4)的数组, 通过tf.nn.embedding_lookup(params, ids)取出该二维数组的第1行和第3行...
原创 2023-01-18 01:19:46
136阅读
softmax函数表达式作用是将一组数转换成预测的概率,原先数值大的数概率会进一步预测较大,原先数值小的数会概率预测变小,且所有预测的概率之和为1,所以该函数常用于分类问题,对最后输出结果进行处理,得到概率import tensorflow as tfimport osos.environ['TF_CPP_MIN_LOG_LEVEL']='2'a=tf.range(1,5,dtype...
原创 2022-07-14 17:39:46
936阅读
import numpy as npimport tensorflow as tf#input:xx_image = tf.placeholder(tf.float32,shaddin
原创 2022-07-19 12:21:39
109阅读
  • 1
  • 2
  • 3
  • 4
  • 5