发展必备条件

1)大数据分布式存储与运算

2)GPU、TPU并行计算

GPU,图形处理器。

TPU,Tensor Processing Unit,由Google公司2016年研发,专为深度学习特定用途设计的特殊规格的逻辑芯片(IC)。

1.2 机器学习介绍
1)机器学习的训练数据由特征(features)和预测目标(Label)组成。

features:描述数据的特征类型

label:描述特征的异同

2)机器学习根本逻辑:训练=》预测

1.3 机器学习分类

有监督学习:数据具备特征和预测目标两种属性。

无监督学习:数据只有特征,但是没有预测目标属性。

增强式学习:借助定义动作(Action)、状态(States)、奖励(Rewards)的方式不断训练机器循序渐进,学会执行某项任务的算法。

1.4 深度学习分类
模仿人类神经网络工作方式,一般分为输入层、输出层和隐藏层,由于存在多个隐藏层,被称为深度学习。

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

第2章 深度学习的原理
2.1 神经元的信息传导
1)神经元基本构造:

轴突:传递信息;树突:接收信息;突触:传送机制

2)神经元的数学表达:

y=activation function(Wx+b)

W是权系数矩阵

x为输入信息

y为接收信息

b为偏差值(bias)

activation function为激活函数,用以对信息传递机制的约束,常见为Sigmoid或ReLU

3)激活函数

一般激活函数为非线性,从而让该网络具备一定的非线性问题处理能力。

4)Sigmoid激活函数

常见的Sigmoid公式为:

其值域为(0,1),有效定义域为(-5,5),可以理解为中值滤波器。

5)ReLU激活函数

小于临界值,忽略刺激;大于临界值,保留刺激,可以理解为高通或者因果滤波器。

2.4 反向传播算法进行训练

损失函数,常使用交叉熵 Cross Entropy

其中,obs表示观测数据的label,cal为预测数据的label,这也意味着利用反向传播算法是建立在有监督学习基础上的,需要给出数据的明确label值。