深度学习的降维过程实质上是学习高维数据的流形结构,常用的卷积神经网络产生特征后,即可以接全连接神经网络,也可以用其他机器学习方法,这个过程是学习概率分布,所以说端到端的深度学习算法是模糊了这两个过程,概率分布的学习目前已经有了较多的方法,但是深度学习对流形结构的学习和降维目前的约束和认识是非常弱的,因此有必要将流行正则化框架融入到目前的深度学习框架中。

在上一章中,我们将学习问题描述为在函数H的空间上最小化含有正则化项的经验风险(误差)。

本章致力于构造一个适当的函数空间H,即再生核希尔伯特空间。我们的方法受到了[13,68,75,81]的启发。

一旦我们理解了这些空间,就会发现我们的经验风险最小化问题可以大大简化。具体来说,Representer定理3.3.1指出,它的解可以写成在我们的数据点上求值函数(核)的线性组合,使得对H的优化和对连载翻译 | 流形学习的数学基础-3核学习_人工智能的优化一样简单。

在本章的最后,我们将这些工具发展到核学习的一般框架中,并描述了三种经典的核学习算法。由于其通用性和简单性,核学习跻身于当今实践中最流行的机器学习方法之列。

连载翻译 | 流形学习的数学基础-3核学习_神经网络_02

连载翻译 | 流形学习的数学基础-3核学习_机器学习_03

连载翻译 | 流形学习的数学基础-3核学习_神经网络_04

连载翻译 | 流形学习的数学基础-3核学习_神经网络_05

连载翻译 | 流形学习的数学基础-3核学习_人工智能_06

连载翻译 | 流形学习的数学基础-3核学习_神经网络_07

连载翻译 | 流形学习的数学基础-3核学习_算法_08

连载翻译 | 流形学习的数学基础-3核学习_算法_09

连载翻译 | 流形学习的数学基础-3核学习_算法_10

连载翻译 | 流形学习的数学基础-3核学习_人工智能_11

连载翻译 | 流形学习的数学基础-3核学习_深度学习_12

连载翻译 | 流形学习的数学基础-3核学习_深度学习_13

连载翻译 | 流形学习的数学基础-3核学习_深度学习_14

连载翻译 | 流形学习的数学基础-3核学习_神经网络_15

连载翻译 | 流形学习的数学基础-3核学习_神经网络_16

连载翻译 | 流形学习的数学基础-3核学习_人工智能_17

连载翻译 | 流形学习的数学基础-3核学习_人工智能_18

连载翻译 | 流形学习的数学基础-3核学习_算法_19

连载翻译 | 流形学习的数学基础-3核学习_深度学习_20

连载翻译 | 流形学习的数学基础-3核学习_算法_21

连载翻译 | 流形学习的数学基础-3核学习_神经网络_22

连载翻译 | 流形学习的数学基础-3核学习_算法_23

连载翻译 | 流形学习的数学基础-3核学习_神经网络_24

连载翻译 | 流形学习的数学基础-3核学习_人工智能_25

连载翻译 | 流形学习的数学基础-3核学习_机器学习_26

连载翻译 | 流形学习的数学基础-3核学习_机器学习_27

连载翻译 | 流形学习的数学基础-3核学习_人工智能_28

连载翻译 | 流形学习的数学基础-3核学习_深度学习_29

连载翻译 | 流形学习的数学基础-3核学习_算法_30

连载翻译 | 流形学习的数学基础-3核学习_机器学习_31

再生性指的就是原本函数之间计算内积要算无穷维的积分,也就是这个映射函数可以映射到高维甚至无穷维(高斯核),而计算无穷维的积分是很复杂的,但是现在只需要算核函数就可以。

连载翻译 | 流形学习的数学基础-3核学习_人工智能_32