1. 神经元
Xi为一项输入,Wi为对应的参数
先求和W0*X0+W1*X1+W2*X2+....=sum
再使用激活函数得到f(sum)=y
2. 神经网络
- 输入层 :负责将输入向量传递给神经网络。如果我们有一个包含 3 个特征的矩阵(形状 N x 3),则该层将 3 个数字作为输入,并将相同的 3 个数字传递给下一层。
- 隐藏层 :代表中间节点,它们对数字进行多次变换以提高最终结果的准确性,输出由神经元的数量定义。
- 输出层 :返回神经网络最终输出的 如果我们进行简单的二元分类或回归,输出层应该只有 1 个神经元(因此它只返回 1 个数字)。在具有 5 个不同类别的多类别分类的情况下,输出层应有 5 个神经元。
3. 神经网络模型
标准神经网络、CNN、RNN
4. 激活函数
假设有一个包含 N 行、3 个特征和 1 个目标变量(二分类,取值0或1)的数据集,如下图所示:
接下来我们要进行一个简单的计算来对结果进行预估,下面的操作类似于单个神经网络的计算,f(WX+b),其中f函数叫做激活函数。
5. 激活函数类型
激活函数是非线性的映射函数,使得神经网络具备强大的非线性拟合学习能力
6. 偏执项(bias)
在每个神经元内部,输入和权重的线性组合也包括一个偏差,类似于线性方程中的常数,因此神经元的完整公式是
7. 反向传播
在训练期间,模型通过将误差传播回节点并更新参数(权重和偏差)来学习以最小化损失。
8. 损失函数
常常利用梯度下降法来使损失函数Loss function的值尽可能小,即让神经网络的预测值(实际输出)和标签值(预期的输出)尽可能接近
如均方误差损失函数(MSE):
9. 梯度下降
在最陡下降方向上重复步骤来找到损失函数的局部最小值。