元旦前,我们的python老师浅谈了卷积神经网路。我们都知道神经网路有三种:卷积神经网络和全连接神经网络、循环神经网络。那么我们上次已经讲过全连接神经网络了。今天和大家一起讨论卷积神经网路。
Python
我们在中学时代学过生物学都知道人类的神经由:神经元、树突、突触等等。那么计算机中的神经网络就是运用数学和生物的知识把它抽象成数学模型,再由计算机代码来实现。
脑神经
使用的神经网络,我们以tensorflow2.0来讨论。至于怎么安装看看我以前写的文章自行安装吧。
开发平台是Windows10,开发工具使用pycharm education。整个神经网络大致可以分为三部分:输入层、隐藏层、输出层。隐藏层分为两部分:卷积层和池化层。简单的卷积神经网路架构分为:卷积层、激励层、池化层、全连接层。输入层输入图像也就是矩阵向量根据tensor他flow提供的卷积核进行卷积运算,计算图像的点积。把计算后形成的向量矩阵进行深入的分析,获取特征映射。卷积和的大小不是一定的,由5*5或是3*3,这是tensorflow2.0提供的。然后就是激励层,由激励函数来提供。我们一般使用relu函数来做激励函数。池化层的作用就是把对前面卷积层进行卷积运算的垃圾数据给清理掉,这些数据对后面的数据处理没有影响的,减少参数数量和降低计算成本。在真正的开发过程中不会说只有一层卷积和池化的,我老师讲她知道的有个项目是经过50多层的卷积和池化后才最后得到输入结果,可以进行多次卷积和池化。池化使用多种池化方式的:有最大2D池化(MaxPooling2D)、均值池化、最大3D池化。均值池化就是把向量矩阵和卷积核通过卷积计算后的得到的结果取它们的平均值来池化。