网络优化与超参数优化选择


文章目录

  • 网络优化与超参数优化选择
  • 一、网络容量
  • 二、如何选择超参数
  • 三、如何提高网络的拟合能力
  • 1.想法增大网络容量:
  • 缺点:
  • 注意:
  • 四、参数选择原则
  • 选择原则
  • 1.首先开发一个过拟合的模型:
  • 2.然后抑制过拟合:
  • 3.再次调节超参数:
  • 总结


一、网络容量

可以认为与网络中的可训练参数(如权值、偏置等)成正比,网络中的神经单元数越多,层数越多,神经网络的拟合能力越强。但是训练速度、难度越来越大,和越来越大容易产生过拟合。


二、如何选择超参数

超参数,其实就是搭建神经网络中,需要我们自己去选择(不是通过梯度下降算法去优化)的那些参数。
比如,全连接层的神经元个数、学习速率等值。


三、如何提高网络的拟合能力

超参数,其实就是搭建神经网络中,需要我们自己去选择(不是通过梯度下降算法去优化)的那些参数。
比如,全连接层的神经元个数、学习速率等值。

1.想法增大网络容量:

①.增加层数
②.增加隐藏层神经元个数

缺点:

单纯的增加神经元个数对于网络性能的提高并不明显增加层会大大提高网络的拟合能力

注意:

单层的神经元个数,不能太小,太小的话,会造成信息瓶颈,使得模型欠拟合


四、参数选择原则

理想的模型是刚好在欠拟合和过拟合的界线上,也就是正好拟合数据。

选择原则

1.首先开发一个过拟合的模型:

①.添加更多的层
②.让每一层变得更大
③.训练更多的轮次
④.添加更多的层

2.然后抑制过拟合:

①.使用dropout随机失活
②.数据进行正则化
③.进行图像增强

3.再次调节超参数:

①.调节学习速率
②.调节隐藏层单元数
③.调节训练轮次


总结

超参数的选择是一个经验与不断测试的结果。经典机器学习的方法,如特征工程、增加训练数据也要做交叉验证。