脉冲耦合神经网络和脉冲神经网络 脉冲神经网络应用_神经网络模型


现在的人工神经网络应用很多,很多人也都有自己一步一步推人工网络的反向传播公式的经历,人工网络从没有“智能”(初始权值随机)到逐步的有了很好的“智能”(鲁棒、抗噪、体现应用智能能力),其中的反向传播梯度下降算法是主要的原因。脉冲网络的优化有两个大的方式方法,第一是用其他的AI方法优化出一个网络模型,然后再将优化后的模型尽量无损的转换为脉冲网络(类脑网络);第二个是我自己更加关注的,就是在生物系统中,有没有“纯天然”的生物学习法则,这些法则的应用就可以使得脉冲网络能够很好的优化,这里说的脉冲网络是指的高度类脑、高度类生物信息计算方式的网络。这次本文要说的也是第二个方法。在这方面的探索,我感觉很是艰难,但是也貌似并非不可能,我先举两个工作,第一个来说明脉冲网络貌似是可以学习的;第二个工作说明貌似这样学,在一些小任务上貌似也能够学成。

1、类脑脉冲神经网络能够开始做优化任务

虽然相比传统的人工神经元而言,脉冲神经元已具备更扎实的生物真实性,然而传统的脉冲神经网络模型仅仅抓住了脑信息处理过程中初步的局部学习训练法则。由于生物脑在学习过程中协同了若干个法则,因此我们不能奢望仅仅采用较少的法则设计的类脑脉冲神经网络模型就能够达到甚至超越生物脑的各种学习能力。研究中将7个受脑启发的规则引入脉冲神经网络模型。神经元的动态分配、突触的生成与消亡、可塑性模型等被认为是脑神经网络处理信息的重要特性。因此,引入这样的规则与机制有望提升传统脉冲神经网络的效率。

所提出的脉冲神经网络模型主要包含三部分:脉冲生成层、隐层、输出层。在脉冲生成层中,静态图像输入被转化为脉冲序列。在隐层中,神经元的动态分配(R1, R2)、突触的生长消亡 (R3, R4)、不同类型的背景噪声(R5)、不同类型的脉冲时序依赖可塑性模型 (R6)、兴奋和抑制性神经元(R7)被作为类脑的重要机制引入。在输出层,兴奋性神经元负责进行分类,抑制性神经元实现赢者通吃的机制(WTA)。实验验证方面,研究采用了手写数数据集MNIST。实验表明,当引入精心选择的类脑机制后,模型的正确率会逐步提升。

Tielin Zhang(Co-First Author), Bo Xu. Improving multi-layer spiking neural networks by incorporating braininspired rules. Science China Information Sciences, 2017, 60(5): 052201:01-12, doi: 10.1007/s11432-016-0439-4


脉冲耦合神经网络和脉冲神经网络 脉冲神经网络应用_神经网络_02

通过不断引入不同的类脑机制提升脉冲神经网络的正确率


脉冲耦合神经网络和脉冲神经网络 脉冲神经网络应用_脉冲神经网络原理及应用pdf_03

两种抑制性神经元及其比例对模式识别类任务正确率的影响

模型性能的最优化并不是本研究最终追求的目标。文章介绍的模型特点在于计算机制上相比传统神经网络模型更具生物可解释性,在这种情况下,通过计算建模理解脑信息处理机制与过程的意义,以及由此带来的启发,要远大于对性能的追求。本项研究工作的主要结论是:每一项引入的机制对于脉冲神经网络处理模式识别类问题都有自己独特的贡献,并且相互不可替代 (如图1所示)。此外,在MNIST数据集上取得最好模式识别效率的兴奋性和抑制性神经元比例为15%抑制性神经元,85%兴奋性神经元(如图2所示),这与生物脑皮层感知区域的兴奋性与抑制性神经元比例近乎一致,从计算的视角初步佐证了脑神经系统在向解决认知任务优化的方向进化。

2、以生物可塑性原理为中心的类脑脉冲神经网络训练

与传统的人工神经网络相比,脉冲神经网络具有更加扎实的生物基础,如膜电势的非线性积累、达到阈值后的脉冲放电以及放电后的不应期冷却等,这些特性在给脉冲神经网络提供了更加复杂的信息处理能力的同时,也为它的训练和优化带来了挑战。

传统的基于误差反传的学习方法已经被证明可以很好地优化人工神经网络,然而其要求网络和神经元节点处处可微分,因此便不再适用于生物脉冲神经网络的优化。目前还没有一套针对脉冲神经网络的通用学习方法,但是,考虑到生物系统中自有一套可塑性学习机制指导着脉冲网络的学习和训练,因此以生物可塑性原理出发,最终启发得到脉冲神经网络的训练方法,将会是一个可能的便捷途径。

这里我们遴选两条生物可塑性规则作为初步研究对象:首先,任何和理论优化方法,其最终目的都是为网络实现稳定的功能表达,在微观尺度即神经元的膜电位改变和输入电流达到平衡,在宏观尺度即网络功能输出和信息输入达到平衡。其次,生物网络的训练中,突触权值往往是随着突触前后神经元放电的状态变化而被动的更新,如脉冲时序依赖的突触可塑性(Spike-Timing Dependent Plasticity, STDP)。

Tielin Zhang, Yi Zeng, Dongcheng Zhao, Bo Xu. Brain-inspired Balanced Tuning for Spiking Neural Networks. The 27th International Joint Conference on Artificial Intelligence (IJCAI 2018), July 13-19, 2018, Stockholm, Sweden. Tielin Zhang, Yi Zeng, Dongcheng Zhao, Mengting Shi. A Plasticity-centric Approach to Train the Non-differential Spiking Neural Networks, Thirty-Second AAAI Conference on Artificial Intelligence (AAAI 2018), February 2-7, 2018, New Orleans, Louisiana, USA.


脉冲耦合神经网络和脉冲神经网络 脉冲神经网络应用_脉冲耦合神经网络和脉冲神经网络_04

三层脉冲神经网络架构

脉冲耦合神经网络和脉冲神经网络 脉冲神经网络应用_ci_05

生物可塑性原理为中心的脉冲网络训练结果

以上述两点规则为总纲,我们将脉冲网络训练方法分为四个步骤:基于前馈的膜电位信息更新;基于输入输出稳态控制的膜电位信息更新;基于一层误差反馈的膜电位更新;基于STDP的由膜电位变化到突触变化的被动更新。

为了验证上述四个步骤的网络训练的有效性,我们采用最简的三层脉冲神经网络进行测试。图1展示了网络结构,网络训练结果如图2所示,最终在MNIST任务上达到分类正确率为98.52%。

模型性能的最优化并不是本研究最终追求的目标。文章的特点在于从生物智能的形成角度总结、发现和重现可用于人工脉冲网络学习、训练、优化的新方法。由此带来的启发,无论对生物理论的理解,还是对人工模型的认识,都将有较为重要的促进意义。

3、优化的目的及未来发展

细心的大家相信可以看出来,上述的两个例子中,脉冲网络虽然可以“优化”,但是在识别率、收敛速度等硬性的精度指标上,毕竟不能打败目前最好的人工网络模型结果,而且脉冲网络目前应用的测试集合都是比较小的如MNIST数据集合,还没有用到ImageNet等上,这都是有其自身的算法运算速度等的实际原因限制。

脉冲网络如果只是概念新颖而无实际的应用点,那么将是这个领域的巨大遗憾。值得庆幸的是,脉冲网络采用特殊的运算方法,在整体的运算方面还是有些优势的,比如不同层级之间的耦合度不高,这样在网络规模达到上亿、上千亿节点的计算时候,集成运算能力就有了优势,毕竟不用像人工网络那样全局都要计算梯度;另外脉冲网络的学习算法的通用性感觉更加强大,网络的结构如环状、层级、跨层等等都可以用同一套算法实现,这有利于算法的迁移扩展;还有一些online learning的场合,脉冲网络也并不落后;最后值得一提的就是脉冲网络的能耗优势了,虽然在膜电位计算的时候,还是要有一些模拟量来表征数值,但是在传输的时候可以单纯的依靠Spike 的0/1信息进行传递,从硬件的角度来看,应该会节省很多的片上带宽。

欢迎联系我做更多的脉冲网络相关问题的探讨:

Tielin Zhang's homepagebii.ia.ac.cn

脉冲耦合神经网络和脉冲神经网络 脉冲神经网络应用_神经网络_06