随着近几年深度学习、神经科学、数字孪生和量子计算的迅速发展,人工智能成为了无论学术界还是互联网领域的一个重要的研究热点。然而,人类在认识世界和改造世界的过程中从自然界和生物特征汲取了大量的灵感和经验。追根溯源,人工智能的发展离不开脑科学的研究。历史上,神经科学和人工智能两个领域一直存在交叉,对生物脑更好的理解,将对智能机器的建造起到及其重要的作用。

人工智能是模拟脑的一项主要应用,现在深度学习这种生物学简化的模型有其优点:具有很好的数学解释性,可以在现有的计算机架构(冯诺依曼)上实现,但是同样有瓶颈。如:计算代价高,不利于硬件实现等。尽管近年来深度学习和大数据的出现使得模型在一些任务上超越人类,但是对于人脑可以处理的复杂问题却无能为力,同时需要大量的计算资源和数据资源作为支撑。

      类脑芯片不采用经典的冯·诺依曼架构,而是基于神经形态架构设计,以 IBM Truenorth 为代表。IBM 研究人员将存储单元作为突触、计算单元作为神经元、传输单元作为轴突搭建了神经芯片的原型。目前,Truenorth 用三星 28nm 功耗工艺技术,由 54 亿个晶体管组成的芯片构成的片上网络有 4096 个神经突触核心,实时作业功耗仅为 70mW。由于神经突触要求权重可变且要有记忆功能,IBM 采用与 CMOS 工艺兼容的相变非挥发存储器(PCM)的技术实验性的实现了新型突触,加快了商业化进程。

在国内,清华大学类脑计算中心于 2015 年 11 月成功的研制了国内首款超大规模的神经形态类脑计算天机芯片。该芯片同时支持脉冲神经网络和人工神经网络(深度神经网络), 可进行大规模神经元网络的模拟。中心还开发了面向类脑芯片的工具链,降低应用的开发难度并提升效率。第二代 28nm 天机芯片也已问世,在性能功耗比上要优于 Truenorth。

当前,类脑 AI 芯片的设计目的不再仅仅局限于加速深度学习算法,而是在芯片基本结构甚至器件层面上改变设计,希望能够开发出新的类脑计算机体系结构,比如采用忆阻器和 ReRAM 等新器件来提高存储密度。这类芯片技术尚未完全成熟,离大规模应用还有一定的差距,但是长期来看类脑芯片有可能会带来计算机体系结构的革命。

了解详情可以看这份AI芯片报告 AI芯片研究报告