过拟合:在训练样本上误差较小,在验证集上误差较大

解决办法:

1. 添加正则项(or 提高正则项系数)

2. 增加数据规模

3. 特征降维

4. dropout

5. pooling

6. batch normalization

欠拟合:在训练样本和验证集上误差都教大

解决办法:

1.减小正则项系数

2.特征维度增加

3.添加高次多项式特征

4.模型复杂化

AlexNet优势:

1)采用非线性激活函数Rel U,保留非线性表达能力,可训练更深层网络

2)采用数据增强和Dropout防止过拟合

3)采用并行化的GPU进行训练

VGG:采用连续的3x3的卷积核代替AlexNet中的较大卷积核,不断加深网络来提高性能

深度学习——过拟合欠拟合、AlexNet、VGG、ResNet_过拟合

2个3*3卷积核叠加,可代替一个5*5的卷积核;3个3*3的卷积核叠加,可代替一个7*7的卷积核。

ResNet:解决了深度CNN模型难训练的问题,针对深度学习退化问题:网络层数深时,理论上模型表现好,但实际上在训练集上表现很差。

核心思想:通过向上堆积深层来建立深层网络

深度学习——过拟合欠拟合、AlexNet、VGG、ResNet_过拟合_02

对于一个堆积层结构,当输入为x时,学习到的特征记为H(x),我们希望学习到的残差F(x)=H(x)-x,这样原始学习特征是F(x)+x。