萌新小白一只,刚刚接触AI,在遍历人工智能发展时就看到了“卷积神经网络”,顿时想到了去年被概率论支配的恐惧,因此想在这里分享一点经验来帮助大家更好理解。

所谓“卷积神经网络”,就是结合卷积公式,建立类似神经元的生物学模型,再加上一堆激活函数、损失函数来修正加工,最后再梯度求导达到帮助AI进行深度学习的目的。

首先我们来看一下卷积公式: fX∗fY=∫−∞∞fX(z−y)fY(y)dy=∫−∞∞fX(x)fY(z−x)dx。

这里z=x+y,fX和fY都是概率密度,fX∗fY表示卷积。其意义就是响应在输入信号上的延迟叠加。这样解释还是很抽象,我们举个例子,就拿复联来说吧。

为了守护世界的和平、抵御黑暗势力的攻击,复仇者联盟应运而生。在漫威宇宙里,他们拳打洛基,脚踢奥创(奥创也是人工智能哦)。电影放映后,IP持续爆红,项目组一看有搞头哦,接下来就安排主角团去刚大Boss灭霸,团灭后穿越时空终于打败了Boss,完结撒花。

在这里故事大纲(漫威宇宙的设定)就是输入信号,超级英雄们的行为就是响应,两者之间的联动就是卷积了,最后钢铁侠去世、美队老去相当于响应在输入的延迟叠加。

然后我们来看看神经网络,这个概念借助了神经元的特性:能够接受外界刺激,产生兴奋,传导兴奋。又因为神经元兴奋的传导是线性关系的,为了防止输入0输出0这种情况的产生和处理一些非线性情况,专家们就在这个模型里面添加了激活函数,目前常用的激活函数有很多,如Sigmoid函数(s形生长曲线)、ReLU函数(线性整流函数)等。然后再用损失函数来对比实际输出结果和理论预期结果,导出误差。

有误差就要尽量减少,不是吗?这时我们就要用到求导这种方法了,去以上的过程中找到梯度下降的地方,优化参数,误差就会减少。当然啦,以上的计算量是海量的,非计算机难以完成。

经过卷积神经网络这一过程,误差不断减小,AI就能进行深度学习了。