1.
- 利用 tf.cast (张量名,dtype=数据类型)强制将 Tensor 转换为该数据类型;
- 利用tf.reduce_min (张量名)计算张量维度上元素的最小值;
- 利用tf.reduce_max (张量名)计算张量维度上元素的最大值。
举例如下:
2.维度的定义
3.tf.Variable()函数
- initial_value 默认为 None,可以搭配 tensorflow 随机生成函数来初始化参数;
- trainable 默认为 True,表示可以后期被算法优化的,如果不想该变量被优化,即改为 False;
- validate_shape 默认为 True,形状不接受更改,如果需要更改,validate_shape=False;
- name 默认为 None,给变量确定名称。
4.对应元素的四则运算
- 利用 TensorFlow 中函数对张量进行四则运算。利用 tf.add (张量 1,张量2)实现两个张量的对应元素相加;
- 利用 tf.subtract (张量 1,张量 2)实现两个张量的对应元素相减;
- 利用 tf.multiply (张量 1,张量 2)实现两个张量的对应元素相乘;
- 利用 tf.divide (张量 1,张量 2)实现两个张量的对应元素相除。
5.利用 TensorFlow 中函数对张量进行幂次运算。
- 可用 tf.square (张量名)计算某个张量的平方;
- 利用 tf.pow (张量名,n 次方数)计算某个张量的 n 次方;
- 利用 tf.sqrt (张量名)计算某个张量的开方。
举例如下:
6.可利用 tf.matmul(矩阵 1,矩阵 2)实现两个矩阵的相乘
a = tf.ones([3, 2]) b = tf.fill([2, 3], 3.) print(tf.matmul(a, b))
features = tf.constant([12,23,10,17]) labels = tf.constant([0, 1, 1, 0]) dataset = tf.data.Dataset.from_tensor_slices((features, labels)) print(dataset) for element in dataset: print(element)
8.可利用 tf.GradientTape( )函数搭配 with 结构计算损失函数在某一张量处的梯度,
classes = 3 labels = tf.constant([1,0,2]) output = tf.one_hot( labels, depth=classes ) print(output)
classes = 3 labels = tf.constant([1,4,2]) # 输入的元素值 4 超出 depth-1 output = tf.one_hot(labels,depth=classes) print(output)
11. tf.nn.softmax
其中 yi是前向传播的输出。在前一部分,我们得到了前向传播的输出值,分别为 1.01、2.01、-0.66,通过上述计算公式,可计算对应的概率值
y = tf.constant ( [1.01, 2.01, -0.66] ) y_pro = tf.nn.softmax(y) print("After softmax, y_pro is:", y_pro)
12.assign_sub
14 tf.reshape()