矩阵分解特征向量和特征值我们在《线性代数》课学过方阵的特征向量和特征值。定义:设$A{\in}F^{n{\times}n}$是n阶方阵。如果存在非零向量$X{\in}F^{n{\times}1}$使$AX={\lambda}X$对某个常数${\lambda\in}F$成立,则称$\lambda$是A的特征值(eigenvalue),X是属于特征值${\lambda}$的特征向量。设$\sigma$
一、数学计算1.加减乘除加法:tf.math.add( x, y, name=None)减法:tf.math.subtract( x, y, name=None )乘法:tf.math.multiply( x, y, name=None )除法:tf.math.divide( x, y, name=None )2.指数、开方、对数指数:tf.math.pow( x, y, name=None ),
group( *inputs, **kwargs )创建一个操作,该操作可以对 TensorFlow 的多个操作进行分组。当这个操作完成后,所有 input 中的所有 ops 都已完成。这个操作没有输出。另请参见 tuple 和 control_dependencies 获得更多信息。参数:input:需要进行分组的零个或多个张量。kwargs:构造 NodeDef 时要传递的可选
转载 2024-04-14 13:59:33
41阅读
测试是否安装成功jupyter里import tensorflow as tf tf.__version__按Ctrl+Enter执行'1.2.1'即为成功。import tensorflow as tf # 创建一个常量运算, 将作为一个节点加入到默认计算图中 hello = tf.constant("Hello, World!") # 创建一个TF对话 sess = tf.Session(
import tensorflow as tf # 1.1矩阵操作 sess = tf.InteractiveSession() x = tf.ones([2, 3], "float32") print("tf.ones():", sess.run(x)) tensor = [[1, 2, 3], [4, 5, 6]] x = tf.ones_like(tensor) print("ones_
TensorFlow中,变量(Variable)是特殊的张量(Tensor),它的值可以是一个任何类型和形状的张量。 与其他张量不同,变量存在于单个 session.run 调用的上下文之外,也就是说,变量存储的是持久张量,当训练模型时,用变量来存储和更新参数。除此之外,在调用op之前,所有变量都应被显式地初始化过。 1.创建变量 最常见的创建变量方式是
记录关键内容与学习感受。未完待续。。TensorFlow Linear Model Tutorial——在本教程中,我们将使用tensorflow中tf.learnAPI来解决一个二元分类的问题:对于给定的人口普查数据,例如一个人的年龄、性别、教育、职业(特征),我们要试图预测出一个人一年是否能赚超过50000美元(目标标签),我们将训练一个逻辑回归模型,并且给模型一个人的信息后,模型将输出数字0
1.placeholder 占位符 可以通过run方法传入值 测试代码如下: 运行结果如下: 2.矩阵的定义 类似于二维数组,测试代码如下: 运行结果如下: 3.矩阵的基本运算 同维度矩阵相加减,内积,外积等,测试代码如下: 运行结果如下: 4.特殊矩阵 特殊矩阵的测试代码如下: 运行结果如下:
原创 2021-07-15 10:23:21
137阅读
本篇笔记包含张量的合并与分割,范数统计,张量填充,限幅等操作。1.合并与分割合并张量的合并可以使用拼接(Concatenate)和堆叠(Stack)操作实现,拼接并不会产生新的维度,而堆叠会创建新维度。选择使用拼接还是堆叠操作来合并张量,取决于具体的场景是否需要创建新维度。拼接 在 TensorFlow 中,可以通过 tf.concat(tensors, axis),其中 tensors 保存了所
矩阵QR分解矩阵的QR分解概述演示分析实现QR分解 矩阵的QR分解和LU分解的目的都是为了便于矩阵计算。 矩阵的QR分解概述这一过程将矩阵分解为和两部分,其中是标准正交矩阵,是一个上三角矩阵矩阵的分解能够简化计算可以以线性系统的计算为例,是非常好计算的,是一个上三角矩阵(相当于Gauss-Jordan消元法的前向过程结束),从下往上推就可以很快计算出线性系统的结果。因为涉及到求取标准正交矩阵
Variable变量1、Variable变量的创建说明:Variable是tensorflow中的一个类,需要实例化,变量根据传入的初始值的shape决定变量的shape,如传入2*2的矩阵,则变量的shape为2*2。 Variable的构造函数:tf.Variable.__init__(initial_value,trainable=True, collections=None, d
转载 2024-07-30 13:28:47
74阅读
训练模型时,需要使用变量(Variables)保存和更新参数。Variables是包含张量(tensor)的内存缓冲。变量必须要先被初始化(initialize),而且可以在训练时和训练后保存(save)到磁盘中。之后可以再恢复(restore)保存的变量值来训练和测试模型。 1、变量op能够持久化保存,普通张量不行2、定义一个变量时,在会话中必须初始化3、name参数:在tensorb
一、项目描述10类花的图片1100张,按{牡丹,月季,百合,菊花,荷花,紫荆花,梅花,…}标注,其中1000张作为训练样本,100张作为测试样本,设计一个CNN卷积神经网络花卉分类器进行花卉的分类,完成模型学习训练后,进行分类测试,并做误差分析,检查模型的泛化性。二、项目界面花卉识别器界面点击“CNN卷积”,读取当前路径下的花卉库CNN训练完成,点击图片进行识别;点击“测试CNN”按钮进行识别;可
import tensorflow as tf matrix1 = tf.constant([[3,3]]) matrix2 = tf.constant([[2],[2]]) product = tf.matmul(matrix1,matrix2) #矩阵相乘 # sess = tf.Session
原创 2021-08-25 14:44:30
165阅读
仅仅是防止自己忘记,这里不可避免地肯定夹杂着大量别人写的东西,我本质上不过是把这些东西集中在一起罢了(简称:大融合怪)。第一步 安装Anaconda第二步 换源C:\Users\用户名 文件夹下找到 .condarcshow_channel_urls: true ssl_verify: true channels: - https://mirrors.tuna.tsinghua.edu.cn/
张量的一些数学操作一 、标量运算1 maximum 与 minimum2 幅值裁剪clip_by_value 与 clip_by_norm 二、 向量运算1 reduce_sum、mean、max、min2 reduce_prob 乘积3 reduce_all 与 reduce_any [逻辑符and or】4 foldr 实现匿名函数5 cum累计6 argmax 与 argmmin 极值索引
会话控制 Session: TensorFlow中的Session主要用于执行命令,不管你前面做了什么,比如使用add(),mul()方法,相加也好,相乘也好,不执行Session().run()就不会执行相应的操作。 例子如下: [python]  view plain  copy 1. import ten
转载 1月前
387阅读
稀疏矩阵的应用此设计实现在三元组,十字链表下的稀疏矩阵的加、转、乘的实现。1.稀疏矩阵的存储2.稀疏矩阵的加法3.矩阵乘法4.矩阵转置             一:存储结构设计        采用三元组结构和十字链表结构存储稀疏矩阵的具体信息。其中:在三元组中,所有元素的信息用数组表示,每
矩阵如何做乘法,一直没搞清楚,今天写个实例:如下:a = tf.constant([[1,2],[3,4]])b = tf.constant([[0,0],[1,0]])c =a *bwith tf.Session() as sess: print(sess.run(a)) print(sess.run(b)) print(sess.run(c))输出如下: 从上...
原创 2021-07-12 11:48:00
758阅读
多分类任务的混淆矩阵处理在多分类任务中,不适合使用PR曲线和ROC曲线来进行指标评价,但我们仍可以通过混淆矩阵来进行处理。可以通过matplotlib的matshow()函数,直观地展示分类结果的好坏。先使用cross_val_predict得出各个分类值的分数y_train_pred = cross_val_predict(sgd_clf, X_train_scaled, y_train, cv
  • 1
  • 2
  • 3
  • 4
  • 5