降维(Dimensionality Reduction)

Motivation I_ Data Compression数据压缩

无监督学习问题,称为降维。有几个不同的的原因使你可能想要做降维。一是数据压缩,后面我们会看了一些视频后,数据压缩不仅允许我们压缩数据,因而使用较少的计算机内存或磁盘空间,但它也让我们加快我们的学习算法。

但首先,让我们谈论降维是什么。作为一种生动的例子,我们收集的数据集,有许多,许多特征,我绘制两个在这里。

ml-8-2-降维(Dimensionality Reduction)_机器学习

假设我们未知两个的特征 x 1 :长度:用厘米表示;X 2 ,是用英寸表示同一物体的长度。

所以,这给了我们高度冗余表示,也许不是两个分开的特征 x 1 和 X 2 ,这两个基本的长度度量,也许我们想要做的是减少数据到一维,只有一个数测量这个长度。这个例子似乎有点做作,这里厘米英寸的例子实际上不是那么不切实际的,两者并没有什么不同。

将数据从二维降至一维: 假使我们要采用两种不同的仪器来测量一些东西的尺寸,其中一个仪器测量结果的单位是英寸,另一个仪器测量的结果是厘米,我们希望将测量的结果作为我们机器学习的特征。现在的问题的是,两种仪器对同一个东西测量的结果不完全相等(由于误差、精度等),而将两者都作为 特征有些重复,因而,我们希望将这个二维的数据降至一维。

如果你有几百个或成千上万的特征,它是它这往往容易失去你需要的特征。有时可能有几个不同的工程团队,也许一个工程队给你二百个特征,第二工程队给你另外三百个的特征,第三工程队给你五百个特征,一千多个特征都一起,它实际上会变得非常困难,去跟踪你知道的那些特征,你从那些工程队得到的。其实不想有高度冗余的特征一样。

ml-8-2-降维(Dimensionality Reduction)_人工智能_02

多年我一直在研究直升飞机自动驾驶。诸如此类。如果你想测量——如果你想做,你知道,做一个调查或做这些不同飞行员的测试——你可能有一个特征:X 1 ,这也许是他们的技能(直升机飞行员),也许“X 2 ”可能是飞行员的爱好。这是表示他们是否喜欢飞行,也许这两个特征将高度相关。你真正关心的可能是这条红线的方向,不同的特征,决定飞行员的能力。

ml-8-2-降维(Dimensionality Reduction)_学习_03

将数据从三维降至二维: 这个例子中我们要将一个三维的特征向量降至一个二维的特征向量。过程是与上面类似的,我们将三维向量投射到一个二维的平面上,强迫使得所有的数据都在同一个平面上,降至二维的特征向量。

ml-8-2-降维(Dimensionality Reduction)_学习_04

这样的处理过程可以被用于把任何维度的数据降到任何想要的维度,例如将 1000 维的
特征降至 100 维。

ml-8-2-降维(Dimensionality Reduction)_学习_05

假使我们有有关于许多不同国家的数据,每一个特征向量都有 50 个特征(如,GDP,
人均 GDP,平均寿命等)。如果要将这个 50 维的数据可视化是不可能的。使用降维的方法
将其降至 2 维,我们便可以将其可视化了

ml-8-2-降维(Dimensionality Reduction)_计算机视觉_06

这样做的问题在于,降维的算法只负责减少维数,新产生的特征的意义就必须由我们自
己去发现了

Principal Component Analysis Problem Formulation主成分分析问题

主成分分析(PCA)是最常见的降维算法。

在 PCA 中,我们要做的是找到一个方向向量(Vector direction),当我们把所有的数据
都 投射到该向量上时,我们希望投射平均均方误差能尽可能地小。方向向量是一个经过原
点的向量,而投射误差是从特征向量向该方向向量作垂线的长度。

ml-8-2-降维(Dimensionality Reduction)_人工智能_07

下面给出主成分分析问题的描述:

问题是要将 n 维数据降至 k 维,目标是找到向量 u (1) ,u (2) ,…,u (k) 使得总的投射误差最小。
主成分分析与线性回顾的比较:

主成分分析与线性回归是两种不同的算法。主成分分析最小化的是投射误差(Projected
Error),而线性回归尝试的是最小化预测误差。线性回归的目的是预测结果,而主成分分析
不作任何预测。

ml-8-2-降维(Dimensionality Reduction)_人工智能_08

上图中,左边的是线性回归的误差(垂直于横轴投影),右边则是主要成分分析的误差
(垂直于红线投影)。

PCA 将 n 个特征降维到 k 个,可以用来进行数据压缩,如果 100 维的向量最后可以用 10维来表示,那么压缩率为90%。同样图像处理领域的 KL 变换使用 PCA 做图像压缩。但 PCA要保证降维后,还要保证数据的特性损失最小。

PCA 技术的一大好处是对数据进行降维的处理。我们可以对新求出的“主元”向量的重要性进行排序,根据需要取前面最重要的部分,将后面的维数省去,可以达到降维从而简化模型或是对数据进行压缩的效果。同时最大程度的保持了原有数据的信息。

PCA 技术的一个很大的优点是,它是完全无参数限制的。在 PCA 的计算过程中完全不需要人为的设定参数或是根据任何经验模型对计算进行干预,最后的结果只与数据相关,与用户是独立的。但是,这一点同时也可以看作是缺点。如果用户对观测对象有一定的先验知识,掌握了数据的一些特征,却无法通过参数化等方法对处理过程进行干预,可能会得不到预期的效果,效率也不高。

Principal Component Analysis Algorithm 主成分分析算法

PCA 减少 n 维到 k 维:

第一步是均值归一化。我们需要计算出所有特征的均值,然后令 x j = x j -μ j 。如果特征是
在不同的数量级上,我们还需要将其除以标准差 σ^2

第二步是计算 协方差矩阵(covariance matrix)Σ:

ml-8-2-降维(Dimensionality Reduction)_人工智能_09

第三步是计算协方差矩阵 Σ 的 特征向量(eigenvectors):

在 Octave 里我们可以利用 奇异值分解(singular value decomposition)来求解,[U, S, V]=
svd(sigma)。

ml-8-2-降维(Dimensionality Reduction)_人工智能_10

对于一个 n×n 维度的矩阵,上式中的 U 是一个具有与数据之间最小投射误差的方向向
量构成的矩阵。如果我们希望将数据从 n 维降至 k 维,我们只需要从 U 中选取前 K 个向量,
获得一个 n×k 维度的矩阵,我们用 U reduce 表示,然后通过如下计算获得要求的新特征向量
z (i) :

ml-8-2-降维(Dimensionality Reduction)_学习_11

其中 x 是 n×1 维的,因此结果为 k×1 维度。注,我们不对方差特征进行处理。

Choosing The Number Of Principal Components选择主成分的

主要成分分析是减少投射的平均均方误差:

训练集的方差为:
ml-8-2-降维(Dimensionality Reduction)_机器学习_12

我们希望在平均均方误差与训练集方差的比例尽可能小的情况下选择尽可能小的 K 值。

如果我们希望这个比例小于 1%,就意味着原本数据的偏差有 99%都保留下来了,如果
我们选择保留 95%的偏差,便能非常显著地降低模型中特征的维度了。

我们可以先令 K=1,然后进行主要成分分析,获得 U reduce 和 z,然后计算比例是否小于
1%。如果不是的话再令 K=2,如此类推,直到找到可以使得比例小于 1%的最小 K 值(原因
是各个特征之间通常情况存在某种相关性)。

还有一些更好的方式来选择 K,当我们在 Octave 中调用“svd”函数的时候,我们获得三
个参数:[U, S, V] = svd(sigma)。

ml-8-2-降维(Dimensionality Reduction)_机器学习_13

其中的 S 是一个 n×n 的矩阵,只有对角线上有值,而其它单元都是 0,我们可以使用这
个矩阵来计算平均均方误差与训练集方差的比例:

ml-8-2-降维(Dimensionality Reduction)_人工智能_14

也就是 ml-8-2-降维(Dimensionality Reduction)_机器学习_15

在压缩过数据后,我们可以采用如下方法来近似地获得原有的特征:

ml-8-2-降维(Dimensionality Reduction)_学习_16

Reconstruction from Compressed Representation 重建的压缩表示

谈论 PCA 作为压缩算法。在那里你可能需要把 1000 维的数据压缩
100 维特征,或具有三维数据压缩到一二维表示。所以,如果这是一个压缩算法,应该能回
到这个压缩表示,回到你原有的高维数据的一种近似。

所以,给定的 Z
( i ) ,这可能 100 维,怎么回到你原来的表示 x ( i ) ,这可能是 1000 维的
数组?

ml-8-2-降维(Dimensionality Reduction)_人工智能_17

PCA 算法,我们可能有一个这样的样本。如图中样本 x (1) ,X (2) 。我们做的是,我们把这些
样本投射到图中这个一维平面。然后现在我们需要只使用一个实数,比如 Z (1) ,指定这些点
的位置后他们被投射到这一个三维曲面。给定一个点 Z (1) ,我们怎么能回去这个原始的二维
空间呢?x 为 2 维,z 为 1 维, ml-8-2-降维(Dimensionality Reduction)_学习_18,相反的方程为: ml-8-2-降维(Dimensionality Reduction)_人工智能_19

ml-8-2-降维(Dimensionality Reduction)_学习_20

ml-8-2-降维(Dimensionality Reduction)_计算机视觉_21

如你所知,这是一个漂亮的与原始数据相当相似。所以,这就是你从低维表示 Z 回到未
压缩的表示。我们得到的数据的一个之间你的原始数据 X,我们也把这个过程称为重建原始
数据。

当我们认为试图重建从压缩表示 x 的初始值。所以,给定未标记的数据集,您现在知道
如何应用 PCA,你的带高维特征 X 和映射到这的低维表示 Z。这个视频,希望你现在也知道
如何采取这些低维表示 Z,映射到备份到一个近似你原有的高维数据。

现在你知道如何实施应用 PCA,我们将要做的事是谈论一些技术在实际使用 PCA 很好,
特别是,在接下来的视频中,我想谈一谈关于如何选择 K。

Advice for Applying PCA 主成分分析法的应用建议

假使我们正在针对一张 100×100 像素的图片进行某个计算机视觉的机器学习,即总共
有 10000 个特征。

  1. 第一步是运用主要成分分析将数据压缩至 1000 个特征
  2. 然后对训练集运行学习算法
  3. 在预测时,采用之前学习而来的 U reduce 将输入的特征 x 转换成特征向量 z,然后再进行预测

注:如果我们有交叉验证集合测试集,也采用对训练集学习而来的 U reduce 。
错误的主要成分分析情况:一个常见错误使用主要成分分析的情况是,将其用于减少过拟合
(减少了特征的数量)。这样做非常不好,不如尝试正则化处理。原因在于主要成分分析只
是近似地丢弃掉一些特征,它并不考虑任何与结果变量有关的信息,因此可能会丢失非常重
要的特征。然而当我们进行正则化处理时,会考虑到结果变量,不会丢掉重要的数据。

另一个常见的错误是,默认地将主要成分分析作为学习过程中的一部分,这虽然很多时
候有效果,最好还是从所有原始特征开始,只在有必要的时候(算法运行太慢或者占用太多
内存)才考虑采用主要成分分析。

ml-8-2-降维(Dimensionality Reduction)_计算机视觉_22