在当今人工智能中,起到核心作用的便是深度神经网络。神经网络通过获取信息、通过一系列人工神经元处理信息并产生输出来模拟我们大脑的工作方式(如下图所示)。
传统神经网络示意图
当大家都熟悉传统神经网络的时候,一种名为量子机器学习的东西开始进入大家视野,并有可能成为未来的趋势。
量子计算
量子计算是一项有潜力将人工智能提升到下一个水平的创新技术。量子计算机利用量子力学的特性来处理信息。传统的计算机以比特来编码信息,比特的值可以是0或1。相比之下,量子计算机用量子比特来编码信息。就像比特一样,量子比特可以取0或1的值。然而,一个量子比特可以同时呈现多个状态,这是一个被称为叠加的量子概念。因此,两个量子比特可以是四种可能状态中的任何一种:01、11、10或00。一般来说,n个量子比特可以代表2^n个不同的状态。这种(非常简化的)叠加概念使量子计算机比传统计算机强大得多。它们可以用更少的计算能力表示更多的信息。
传统比特和量子比特对比
量子机器学习
神经网络的一个主要难题是训练它们做决定的时间。由于缺乏计算能力,花几周甚至几个月的时间来训练一个神经网络并不罕见。如果有一种方法可以利用量子计算的力量来加速训练过程,让这些复杂的网络变得可行呢?
量子机器学习(Quantum ML)就像它听起来的那样,是机器学习和量子计算的交集。Quantum ML的目标是利用量子计算机的能力,以比传统计算机快得多的速度处理信息。然而,它并不像将现有的代码从CPU传输到量子处理器那么简单。首先,代码是需要能够说量子比特的量子语言。今天关于Quantum ML的许多工作都试图解决这个问题。
量子神经网络(QNNs)
理论方法
功能性神经网络是人工智能的一大进步。然而,现有的神经网络还不能驾驭量子计算机的力量。创建工作QNN的第一步是对单个量子神经元建模。
让我们来看看量子神经元是如何表示的,以及QNNs与传统神经网络的比较。既然对量子力学有不同的解释,就有不同的方式来表示一个量子神经元。其中一种解释是多元世界解释。简而言之,这一理论认为存在许多平行宇宙,每一个都同时呈现出每一个可能的历史和未来。
多世界的解释提供了QNN应该如何表现的洞察力。就像传统的神经网络模仿人脑一样,QNN也可以模仿量子物理。宾夕法尼亚州立大学的研究人员利用这一解释开发了一种构建QNNs的方法。
传统的神经网络使用单一的网络来存储多种模式。如果QNNs使用许多网络来存储许多模式,就像有许多包含许多实相的宇宙一样,那会怎样呢?量子叠加可以使这成为可能。记住,叠加意味着一个量子位可以同时处于多个状态。将这个类比扩展到神经网络,在理论上,一个QNN能够将所有可能的模式同时存储在叠加中。因此,网络中的每个模式都代表它自己的平行宇宙。
这是众多QNNs理论框架之一。表示多个平行宇宙的QNN的实际实现还不可行。然而,建立单个量子神经元的模型是可能的。
实现
根据《麻省理工学院技术评论》,意大利帕维亚大学的一个研究团队于2018年在量子计算机上实现了世界上第一个单层神经网络(如下图所示)。
人工神经元的经典模型(a)和量子处理器上人工神经元的量子实现(b)
在具有单个神经元(a)的经典神经网络中,输出是通过激活函数将输入向量映射到二进制输出的加权和。在抽象层面上,QNN的功能是相同的,但在量子处理器上的实现是不同的。量子网络的第一层将输入向量编码成量子态。然后,第二层对输入进行幺正变换,类似于经典神经网络中的权向量的工作方式。你可以把酉变换想象成计算机把比特转换成量子比特。最后生成最终的输出。
在量子处理器上实现幺正变换是复杂的(b)。在高层次上,输入通过一系列门,这些门是量子电路的一部分。这些门模仿传统神经网络的权重向量。
这个模型能够准确地模拟单个神经元的行为。然而,它还没有扩展到一个由多层神经元组成的深度神经网络。像这样的单层模型能够识别简单的模式,但是还不能扩展。这是在量子硬件上有效训练QNNs的第一步,也是实现神经网络的多世界解释的第一步。
QNNs的好处QNNs看起来非常复杂,难以理解。但是有一个很好的理由去探索它们。根据宾州州立大学的研究团队,QNNs与传统神经网络相比有很多优势,包括:
-
指数内存容量隐藏神经元数目越少,表现越好
-
更快的学习处理速度(1010比特/秒)
-
小尺度(1011个神经元/mm3)
-
更高的稳定性和可靠性
这些优点解决了传统神经网络的大部分局限性。目前,为了实现一个功能完备的QNN,人们正在做很多努力。
现在,QNNs更多地处于胎儿期,而非青春期。谷歌人工智能和其他人正在进行的研究有助于为量子ML空间的未来工作奠定基础。QNNs的未来应用是不确定的,而且可能太抽象以至于大多数人无法理解。但可以肯定的是,无处不在的量子ML即将问世,人们很容易对它的前景感到兴奋。