脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能_人工智能

脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能_python_02

图源:海德堡大学

人工神经网络是如今最成功的人工智能(AI)算法,它的基本构成是按照我们大脑真实神经网络的处理模式,一般来说,隐藏层越多,越复杂,网络精度就越高。但基于计算机运行的人工神经网络会消耗惊人的能量和时间,而且它的效率远不及人类的大脑运算能力。为了提高AI算法的效率,科学家们将目光转向如何令AI系统能够像人脑一样处理信息,即如何让这个系统在结构成分上更像大脑?

其中一个重要的改进就是神经形态计算(neuromorphic computing)的出现,和传统AI算法中中央处理单元和记忆芯片之间长距离传输数据的结构不同的是,神经形态的设计考虑了人类大脑中的胶状物质结构,即将计算单元(神经元)放置在记忆单元(存储在连接神经元的突触中)旁边。这种设计更接近于我们大脑的运行原则和物质结构,与目前仅依靠二进制信号处理0和1的数字计算机的架构和计算模式有很大的不同,在计算效率上大大提高,可能在未来是实现AI节能的重要环节。而为了让它们更像大脑,研究人员将神经形态芯片与模拟算法相结合,令其可以像真实的神经元一样处理连续的信号。

以大脑结构为向导,神经形态芯片有望在未来节省掉像AI这样需要大量数据的计算任务消耗的能量。但实际上目前AI算法不能很好地与这些芯片的模拟版本相配合,主要原因来自设备不匹配:在芯片上,模拟神经元内部的微小组件在制造过程上很难达到尺寸匹配,则单个芯片精密度不够,无法运行最新的训练程序,因此算法必须首先在计算机上进行数字化训练。但是,当算法被转移到芯片上时,一旦在模拟组件上遇到不匹配,它们的性能就会崩溃。幸运的是,今年一月份发表在《Proceedings of the National Academy of Sciences》上的一篇论文终于揭示了一种可以避开这个问题的方法。

脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能_机器学习_03

由弗里德里希·米歇尔生物医学研究所(FriedrichMiechell Institute for Biomedical Research)的FriedemannZenke和海德堡大学(Heidelberg University)的Johannes Schemmel领导的研究团队实现了一种名为脉冲神经网络(SNN)的AI算法,可以利用大脑的独特通信信号(峰值信号)与芯片工作以学习补偿设备之间的不匹配问题。这篇论文是利用人工智能实现模拟神经形态计算的重要一步。2011年,海德堡大学的一组研究人员开始开发一种同时具有模拟和数字模块的神经形态芯片,以便在神经科学实验中近似模拟大脑。现在由Schemmel领导的团队已经公布了最新版本的芯片,该研究团队改善不匹配问题的核心方法是利用替代梯度学习的环路(ITL)模拟神经形态系统,并将其应用于混合信号的BrainScaleS单片机系统,被称为BrainScaleS-2。

     BrainScaleS-2芯片结构

脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能_python_04

图1混合信号BrainScaleS-2芯片

(A)芯片特写;(B)在模拟神经形态核心上实现多层网络,输入脉冲序列通过突触驱动程序(三角形)注入,并通过突触阵列传递到隐层神经元(绿色圆圈)。隐藏层中的峰值信号被按指定路径到芯片上的输出单元(红色圆圈)。每个连接单位由一对兴奋性和抑制性硬件突触表示,它们持有信号权重。模拟膜电位通过CADC读出,并由PPU进一步处理。

每当膜电位超过触发阈值时,就会传出一个峰值信号,随后膜电位被重置,芯片上的事件通过路径将内部和外部产生的峰值信号传播到连接神经元,形成前馈和循环拓扑结构。为了实现这一功能,每个神经元整合了来自256个突触列的刺激,每个突触都有一个6 bit的权重存储在随机访问局部静态存储器中。由此产生的突触后电流I集成在膜电容器上并且遵循类似细胞膜动力学本身的指数时间进程。突触信号被视为突触前的性质。另外,通过合并相反符号的突触回路,可以实现训练过程中正权值和负权值之间的连续转换。另外,BrainScaleS-2允许单独调整所有神经元参数,包括参考电位和时间常数,在每个神经元的基础上灵活模拟不同的目标动态性能。这种细小单位控制还有助于校准,从而降低处理进程中的变化引起的偏差。

    模拟硬件上的ITL替代梯度

为了在BrainScaleS-2上训练SNN,团队开发了一个基于替代梯度的通用学习框架来优化循环和多层网络,方法如下:首先,在模拟神经形态基质上模拟正向传递过程,并记录峰值和内膜痕迹(图2A和B),通过将内膜痕迹注册到近似的软件模型中,可以有效呈现神经形态SNN的可区分性。同时,该团队的学习算法能够对模拟元件的参数失配进了自校正(图2C),最后,闭环的实现主要通过将更新后的权值传递回模拟系统。

脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能_算法_05

图2BrainScaleS-2替代梯度学习

 (A)ITL训练方案图解,正向传递在BrainScaleS-2芯片上进行模拟,神经形态基质中的可视数据和输入脉冲序列在传统计算机上处理,以便向后传递,接下来计算出的权重被更新后写入神经形态系统。(B)通过CADC并行记录256个神经元的模拟痕迹和峰值数据。(C) 泄露整合放电的动力学积分得到的可微计算图,时间维度从左到右展开,信号在集成过程中从下到上流动。突触电流由前一层的峰值和隐藏的循环连接乘以各自的权重(W)获得。刺激被整合到在神经元细胞膜(V)上,当神经元越过阈值时触发脉冲(S)。这些观测数据与硬件记录的数据连续同步,峰值和复位信号(RST)被传递到下一个时间进程。

    BrainScaleS-2的分类效果

研究人员利用ITL学习框架对BrainScaleS-2进行了一系列基于峰值信号的视觉和语音识别任务的训练。在视觉识别训练过程中,神经形态基质学会了正确地推断并将正确的成员类别作为最大的响应输出单元。然而其他单元的抑制并没有在损失函数明确定义的,而是通过优化自然出现的。100个epoch之后,模型几乎完美地拟合了训练样本,训练精度达到97.2%。语音分类中SNN的识别正确率在训练集中达到了96.6%,测试集中达到了76.2%,后来,研究人员通过数据扩充将测试集正确率提高到了80.6%。总之,这些结果都体现了ITL学习的灵活性也适用于循环SNN解决难度较大的语音处理问题。

脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能_算法_06

图3视觉数据的分类。

(A)三张SNN活动快照,包括缩减后的16×16张输入图像(上),输入脉冲序列和隐层活动的放电栅图(中)和读出的神经元轨迹(下);后者显示了一个清晰的分离效果,即一个正确分类的图像。(B) 5个初始条件下100个训练期的损耗和精度。(C)决策时间始终低于10 μs。这里,分类耗时由迭代重新计算限于[0,T]时间内输出痕迹的max-over-time确定。(D)较短耗时允许每11.8 μs注入一幅图像,相当于每秒超过85000个分类,通过人工重置样本之间的神经网络状态来实现。(E)神经形态系统可以通过训练来进行稀疏活动的分类,当扫描正则化强度时,不止一个数量级的隐层脉冲计数中可以看到高性能状态。

脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能_人工智能_07

图4 BrainScaleS-2上循环SNN对自然语言的分类

(A)循环网络对数据集的响应。来自于语音数字录音的输入脉冲序列刺激被减少到70,根据输出单元膜痕迹的累加损耗对网络进行训练。(B)超过100个训练后,网络形成了合适的表征,训练损耗和错误减少证明了这一点,这里显示了5个不同的初始条件。当训练有固定递归权值的网络时,它会汇集到较高的损耗和误差。(C) 20个类别的分类表现各不相同,尤其某些类别有相似音位。(D)经过训练的网络可以很好地概括数据集中包含的大多数未知语音数据。

荷兰国家数学和计算机科学研究所CWI的神经网络专家Sander Bohte说,令人惊讶的是,它的效果如此之好。这是一个相当大的成就,甚至是更多类似神经形态系统的蓝图。传统的数字计算可以有效地表示大脑的脉冲信号的一个二元方面,与二进制数字信号一样,要么发送脉冲,要么不发送。但峰值信号是随着时间不断发送的,这是一种模拟信号。基于细胞内电压随时间的变化过程,我们的神经元如何决定首发的脉冲信号也是连续的。

模拟计算对基于大脑的计算系统有一种微妙的重要性。人脑之所以有如此完美高效的计算能力,其核心就在于模拟。而BrainScaleS-2上的每个模拟神经元都能模拟大脑细胞的电流和电压变化,这样就拥有了一个不断交换信息的动力系统,作者表明脉冲神经网络可以学习如何校正BrainScaleS-2芯片上的变化电压。替代梯度法有效地解决了芯片在计算机上训练时的缺陷。首先,脉冲神经网络利用芯片上模拟神经元的不同电压执行一项简单的任务,将电压记录发送回计算机。在那里,算法自动学习如何最好地改变神经元之间的连接,以保持与模拟神经元的良好互动,并在学习的同时不断地在芯片上更新它们。当训练完成后,峰值神经网络可在芯片上执行任务。研究人员报告说,他们的神经网络在语音和视觉任务上的准确率达到了与在计算机上执行任务的顶级神经网络相同的水平。这是个惊人的效果,算法准确地了解了它需要做哪些改变来克服设备不匹配的问题。而且,正如预期的那样,它们的能源效率令人惊喜;作者说,在芯片上运行他们的算法所消耗的能量相比标准处理器降低了1000倍。

尽管该方法目前仍然需要在计算机和芯片之间来回传输数据,难以扩展到大型实际任务,但利用模拟人脑神经形态算法的方式模拟了人脑计算的低耗能,这在AI算法发展进程中无疑是一个飞跃。它的长期目标是让神经网络从开始到结束都在神经形态芯片上训练和运行,而完全不需要电脑,这可能需要数年时间,但Zenke和Schemmel的团队对此十分有信心。


加QQ群:913607986脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能_python_08

脉冲神经网络克服了类脑计算的硬件障碍,让AI更节能_python_09

点个在看祝你开心一整天!