3.1ReLUNonlinearity使用relu作为激活函数要比sigmoid和tanh(双曲正切)函数收敛的快3.3局部响应归一化对局部神经元的活动创建竞争机制,使响应大的变得更大,并抑制其他反馈较小的神经元,可以降低top1top5的错误率3.4重叠池化池化的边界相互重叠,可以降低过拟合的情况4减少过拟合的两种方法:DataAugmentation和Dropout4.1DataAug(1)使
原创 2018-11-09 17:08:19
965阅读