Note 7 - 核主成分分析(Kernel Principal Component Analysis)
核主成分分析
- Note 7 - 核主成分分析(Kernel Principal Component Analysis)
- 7.1 用内积表示的线性PCA(Linear PCA expressed with inner products)
- 7.2 向核PCA过渡 (Transition to Kernel PCA)
- Definition 7.1 正定核 (Positive Definite Kernel)
标准PCA通过将观察到的数据投射到一个线性子空间来降低其维度。选择投影的方式是使以平方的标准欧氏准则衡量的误差最小,这也可以解释为减少白高斯噪声的一种方式。一个非常重要的应用是将PCA作为分类的预处理,因为分类器在减少噪声的特征空间中表现更好。
标准PCA的主要缺点是,它严重依赖数据的近似线性结构。在许多应用中,这是一个过于严格的假设。核PCA(K-PCA)是标准PCA的一个扩展,它没有这些缺点。K-PCA的关键思想是,它隐含地假设存在一个非线性映射
其中是一个非常高维的向量空间(甚至可能是无限维的),其内积为。我们无妨把看作是一些,有非常大的。作为一个初步的步骤,我们重新表述众所周知的标准PCA,使其只涉及我们数据的内积。
形式上,希尔伯特空间是一个实数或复数内积空间,就内积所引导的距离函数而言,它也是一个完整的公制空间。
7.1 用内积表示的线性PCA(Linear PCA expressed with inner products)
让为居中的数据矩阵(这将是下面推导的一个关键假设),让为矩阵,由数据的所有内积组成。更确切地说,项是第和第观测值的内积。
回顾一下,如果是数据矩阵的SVD。那么数据向量的前主分量是由给出的。在目前的情况下,只给出了内积,因此不可能直接得到。然而,的特征值分解允许对这个问题有一个优雅的解决方案。记住,我们有 并用它的SVD代替。我们得到
记住,是正交的,是对角的。因此,方程(7.2)是的特征值分解(EVD),由于EVD的唯一性,通过计算的最大特征值与它们各自的特征向量,我们得到和。我们将假设,否则我们可以减少目标子空间的维度而不损失任何数据信息。为了简单起见,我们定义对角矩阵。
这使我们能够对于一个给定的观测值 只需使用内积就可以计算出 的主成分。对于一个新的测量值,我们有
将此方程与相乘,我们可以得到
注意,这个方程的右边可以通过只涉及数据的内积的数据来计算,即Gram-matrix 和内积。
使数据居中
到目前为止,我们已经假定数据是居中的,也就是说,Gram-matrix 来自居中化的数据。这个假设很关键,因为否则方程(7.4)的推导将不成立。现在让我们假设,我们没有可用的居中数据,而Gram-matrix 是由非居中数据建立的。好消息是,可以通过以下公式直接从推导出对应于中心数据的格拉姆矩阵,例如,即
其中.
证明:
从方程(1.3)中可以看出,如果表示非居中的数据矩阵,那么居中的矩阵由以下公式给出
有。 由此,可以看出
用对称矩阵的速记符号来表示 。我们可以得到
因此,如果我们有来自非中心数据的Gram-matrix,我们可以很容易地计算出对应于中心数据的Gram-matrix(无需明确地将居中)。由此,我们可以–如上所述–计算和。为了计算新数据样本的主成分,我们首先要根据训练样本把居中处理。具体来说,这意味着我们必须从减去训练数据的经验平均值。然后我们必须用替换公式(7.3)和(7.4)中的。这就得到了
其中
7.2 向核PCA过渡 (Transition to Kernel PCA)
现在,通过简单地将内积 替换为来扩展经典的PCA是很简单的。K-PCA的实际成功是由于计算时,既不需要也不需要
这反映了的属性,即对于所有来说是对称的,并且满足 的正定属性。用代替,因此不需要知道特征映射,称为核技巧(Kernel trick)。
Definition 7.1 正定核 (Positive Definite Kernel)
- 令 与如上定义. 带有 项的 -矩阵 被称为的Gram-或Kernel-矩阵,相对于。
- 如果对于所有有限的、非空的集合 来说,相应的Gram-matrix是正半定的(正定的),那么这个函数被称为核(正定的核)。
在上一小节中,我们讨论了在潜在的希尔伯特空间中的数据居中问题。我们在这里也面临同样的问题。当一个新的数据点出现时,直接计算新数据点的非中心化内积向量与训练数据的关系是很简单的。我们将把它称为
那么,中心化数据的第条是
为了找到一个更简洁的表达方式,我们利用标量乘积的线性来得到
而且很容易看出,
总之,对于一个训练集
- 找到一个合适的内核函数
- 计算Gram-matrix ,其中是居中化的数据。
- 计算特征值分解。由于核函数的定义,矩阵是半正定的,因此的对角线项是非负的。因此,我们可以写成 .
- 定义缩减矩阵 与.
- 缩减后的训练数据由以下公式得出
- 对于一个新的数据点 ,核主成分的计算方法是
其中