一、 人工智能技术在现代科技发展中的作用

人工智能是计算机学科的一个分支,二十世纪七十年代以来被称为世界三大尖端技术之一(空间技术、能源技术、人工智能)。人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。人工智能将涉及到计算机科学、心理学、哲学和语言学等学科。人工智能技术就是通过了解智能的实质,生产出一种能够以人类智能相似方式进行反应和决策判断的智能机器,人工智能的研究领域通常包括:智能机器人、语音识别技术、图像识别技术、自然语言处理、知识图谱和专家系统等。

中国信通院发布的《人工智能白皮书》[1]指出,目前人工智能技术飞速发展,国内外不断强化人工智能的战略地位,推动人工智能在各个领域的应用,开启了人工智能技术的新时代。同时,现代科技发展受到人工智能技术的极大推动,图像识别技术的不断更新发展推动了自动驾驶、智能检测、医学图像癌症检测等诸多领域技术的发展;自然语言处理的发展促进了信息时代机器处理文字从语法层面进步到语义层面,推动了机器理解文字的发展。

从传统机器学习到深度学习、强化学习,再到联邦学习,人工智能技术不断发展,对现代科技也起到关键的推动作用,每一次人工智能技术的创新式发展进步,都推动着现代科技步入新的时代。传统机器学习主要分为监督学习和无监督学习[2],监督学习需要人工对数据进行标签,无监督学习则是根据数据特征进行聚类等处理。这种方法虽然可解释性强,但需要人工进行数据标注,对于数据标注正确性极为敏感。而深度学习的出现,解决了数据标注这一问题,深度学习技术通过构建类似人类神经系统中神经元的组织结构,实现智能决策与智能处理,相较于机器学习算法,深度学习算法无需对数据进行预处理和数据标注,而是直接通过输入原始数据,经过神经网络结构从而得到输出。但这种方式可解释性差,对于数据量的要求极高,只有在大量数据的训练下才能够保证深度学习模型的准确率。在自动驾驶领域,目前常用的图像识别和智能决策算法还是基于理论性较强、可解释性较好的机器学习算法[3],这主要是由于自动驾驶关系到交通安全,因此选择可解释性较好的机器学习算法可以保障安全性和鲁棒性。

由此可见,现代科技与人工智能技术息息相关、密不可分,人工智能技术的每一次突破与进步都将为现代科技带来飞速的发展。同样,人工智能技术发展的停滞也会影响现代科技的深入发展,成为现代科技发展的制约因素。因此,人工智能技术成为现代科技发展的中流砥柱,发展人工智能技术就是推动现代科技的进步。

二、 人工智能技术对环境、社会的影响

科技是一把双刃剑,人工智能技术作为新时代科学技术的代表产物,自然也对环境与社会产生利与弊的影响。下面就将针对人工智能技术在环境与社会中的利弊影响展开讨论。

2.1 人工智能技术对环境的影响

人工智能技术作为新一轮工业革命的核心技术,目前已经逐渐应用于环境治理领域并产生了正向效应。具体而言,人工智能技术通过直接和间接两种方式对环境污染治理产生影响。直接技术进步效应表现在人工智能催生出的一系列新技术、新产品、新模式用于环境污染治理领域,减少环境污染。间接技术进步效应一是表现在人工智能技术的发展会扩大经济规模,促进经济增长,从而对环境污染产生影响,但影响方向不确定;二是表现在人工智能技术会提升一国在全球价值链中的分工地位,促进全球价值链升级,从而降低一国的环境污染[4]

正面影响表现在:人工智能技术为环境感知与城市治理提供了新的发展动力,能够通过人工智能技术实现环境污染的治理。文献[5]指出,人工智能在水质检测领域应用广泛,通过传感器和智能机器人,可以实现水质的实时监测与污染的及时处理,从而保障水质环境。此外,文献[6]提出了一种基于联邦学习的能源需求学习算法,在保证数据不离开本地的情况下,各充电站利用本地的信息,执行强化学习算法来对能源需求进行预测,实现了对电动汽车的管理,从而避免能耗过多对环境造成影响。

负面影响表现在:人工智能技术离不开大数据和云计算的支持,同时,海量的数据使得计算产生的能耗成为环境污染的因素之一。以车联网为例,车辆作为车联网中的终端设备,承载了大量的计算任务和模型训练任务,这增加了车辆的能耗与污染排放,从而一定程度上影响了环境。

2.2 人工智能技术对社会的影响

与人工智能技术对环境影响相似,人工智能技术对社会也存在正面影响和负面影响,应当根据具体影响进行具体分析。

正面影响表现在:人工智能技术的发展极大方便了人们的生活,人脸识别技术现在广泛应用于各个领域,在案件侦破、手机解锁,甚至是疫情时代的口罩检测都应用到了人脸识别技术,人脸识别技术属于图像识别领域的重要应用,相关技术的更新迭代也推动着社会与时代的发展,为社会治安、疫情防控等方面做出了重要贡献,是社会发展不可或缺的技术力量。

负面影响表现在:以人脸识别技术为代表的诸多人工智能技术需要海量数据集作为训练基础,同时在识别过程中人脸图像等隐私信息有可能被保存,容易被不法分子利用,导致公民个人隐私信息泄露。因此,针对数据中敏感信息与隐私信息应该加以保护,避免信息泄露带来风险,这是目前人工智能技术对社会带来的负面影响。随着人工智能技术的不断进步,这些负面影响有望得到减少,以人脸识别等技术带来的隐私问题为例,目前联邦学习的兴起旨在解决“数据孤岛”难题和隐私保护问题,通过联邦学习分布式训练框架可以实现数据不出本地,从而达到隐私保护的目的。

三、 基于深度学习的自然语言处理技术综述

3.1 自然语言处理概念

自然语言处理(Natural Language Processing, NLP)领域,也称为计算语言学,涉及计算模型和过程的工程,以解决理解人类语言的实际问题。NLP中的研究工作可以分为两大子领域:核心领域和应用[7]。核心领域解决了基本问题,例如:语言建模,它强调量化自然语言中的单词之间的关联;形态学处理,处理单词中有意义的组成部分的分割,并识别所使用的单词的真实词性(POS);句法处理或解析,构建句子图作为语义处理的可能前体;语义处理,提炼文本中单词,短语和更高级别组件的含义。应用领域主要涉及提取有用信息(例如,命名实体和关系),语言之间和语言之间的文本翻译,书面作品的摘要,通过推断答案自动回答问题,以及文件的分类和聚类。通常,需要成功处理一个或多个核心问题,并应用这些算法来解决实际问题。

目前,NLP主要是一个数据驱动的领域,使用统计和概率计算以及机器学习。在过去,机器学习方法,如朴素贝叶斯,k-最近邻、隐马尔可夫模型、条件随机场(CRF)、决策树、随机森林和支持向量机等被广泛使用。然而,在过去几年中,已经发生了大规模的转变,这些方法已被神经网络模型完全取代,受到了深度学习的极大影响。

3.2  NLP中的深度学习

神经网络由相互连接的节点或神经元组成,每个节点或神经元接收一定数量的输入并提供输出。输出层中的每个节点都对它们从输入节点接收的值执行加权和计算,然后使用简单的非线性变换函数对这些求和生成输出。其中,对权重的校正是为了修改网络在输出节点上表现出的单个错误或损失,这种校正通常使用随机梯度下降法,考虑到节点处误差的导数,这种方法称为反向传播[8]。区分不同类型的网络的主要因素是节点的连接方式和层数。所有节点都可以组织成连续层的基本网络,每个节点仅从前一层中的节点接收输入,称为前馈神经网络(FFNN)。虽然目前对于DNN的确切定义没有明确的共识,但通常,具有多个隐藏层的网络被认为是符合深度网络的[9]

目前深度学习常用的网络模型主要是:卷积神经网络(Convolutional Neural Networks, CNN)、递归神经网络(Recursive Neural Network, RNN)、长短期记忆网络(Long Short-Term Memory, LSTM)。

卷积神经网络从数学和信号处理中的卷积运算中得出了这个名字。CNN使用称为滤波器的函数,允许同时分析数据中的不同特征,广泛用于图像和视频处理,以及语音处理和自然语言处理。通常,某些特征的确切位置并不重要,重要的是它们是否出现在特定位置。因此,池化操作可用于最小化特征映射(卷积滤波器的输出)的大小。此类池的大小通常很小,以防止丢失过多的精度。

递归神经网络与CNN非常相似,递归网络使用一种重量共享形式来最小化训练。在递归网络中,权重的单个张量(或广义矩阵)可以在树中的低水平上使用,然后在连续的较高水平上递归使用。

长短期记忆网络是一种允许网络具备记忆功能的RNN模型,即:一个高度工程化的RNN是LSTM网络。在LSTM中,递归节点由几个单独的神经元组成,这些神经元以旨在保留、忘记或公开特定信息的方式连接。通常,记住很长时间的过去信息很重要,与此同时,其他最近的信息可能并不重要。通过使用LSTM,这些重要信息可以保留更长时间,而不相关的信息可以被遗忘。LSTM的一种稍微简单的变体,称为门控循环单元(GRU),已被证明在许多任务中的表现与标准LSTM一样好或更好[10]

3.3 基于深度学习的自然语言处理技术

NLP领域中,除了传统的深度学习模型,还有新的技术用以提高文本处理性能。即:注意力机制和Transformer模型,对于机器翻译、文本摘要或字幕等任务,输出采用文本形式。通常,这是通过使用编码器-解码器对来完成的。编码 ANN 用于生成特定长度的向量,解码 ANN 用于基于此向量返回可变长度文本。如图1(a)所示,该方案的问题在于RNN被迫将整个序列编码为有限长度向量,而不考虑是否有任何输入比其他输入更重要。

 

android 人工智能研发 人工智能技术研发_人工智能

图1. 编码器-解码器架构

对此一个强有力的解决方案是注意力机制,该机制允许网络根据当前的隐藏状态和注释来学习要注意的内容。这种机制如图1(b)所示,已经引入了该机制的变体,流行的变体包括卷积、门控和自我注意模型。自我注意涉及对同一句子中的单词进行关注。例如,在对输入句子中的单词进行编码期间,将可变量的注意力投射到句子中的其他单词上;在解码以生成结果句子期间,对已经生成的单词提供适当的关注。特别是自注意模型,它已被广泛应用于一种称为Transformer的最先进的编码器-解码器模型中[11]。Transformer模型如图2所示,具有多个编码器和解码器堆叠在一起,每个编码器和解码器单元具有自注意性,编码器和解码器之间的交叉注意。它并行使用多个注意力实例,并避免使用递归和卷积。Transformer已成为大多数最先进的NLP神经网络中的典型组件。

android 人工智能研发 人工智能技术研发_数据_02

图2. Transformer模型 (a)Transformer,后跟四个“编码器”,四个“解码器”,全部跟着一个“位置编码器”。(b)每个“编码器”的内部工作原理,其中包含一个自注意层,后跟一个前馈层。(c)每个“解码器”的内部工作原理,其中包含一个自注意层,然后是一个注意编码器 - 解码器层,最后是一个前馈层。

NLP中最重要的任务是语言建模。语言建模是几乎所有NLP应用的重要组成部分。语言建模是创建一个模型的过程,用于预测给定先前单词或组件的单词或简单语言组件[12]。这对于用户键入输入的应用程序非常有用,可以为快速文本输入提供预测能力。然而,它的强大功能和多功能性源于它可以隐式捕获线性邻域中单词或组件之间的句法和语义关系,使其可用于机器翻译或文本摘要等任务。

语言建模一直在发展,从Radford等人[13]和Peters等人[14]的研究开始,Radford等人引入了生成预训练(GPT),它预训练了基于Transformer模型的语言模型,学习句子中单词的依赖关系和较长的文本段,而不仅仅是紧挨着的单词。Peters等人[14]在他们的语言模型(ELMo)嵌入中结合了双向性,除了前向上下文之外,还捕获了后向上下文。此外,他们还在多个级别捕获矢量化,而不仅仅是最后一层。这允许捕获相同信息的多个编码,经验证明这可以显着提高性能。

深度学习在NLP任务中通常表现非常好,在许多单独的NLP任务中超越了现有的技术水平,从而为可以并且正在构建有用的自然语言应用程序奠定基础。然而,自然语言是一个复杂的话题,有无数的核心或基本任务,其中深度学习只是表面。目前还不清楚如何综合执行单个核心任务的架构来构建一个共同的框架,可能是一个更复杂的分布式神经架构。随着技术的不断发展,NLP也将不断取得新的突破与进步,未来机器理解人类自然语言将一步步成为现实。

 

参考文献

[1] 中国人工智能学会.中国人工智能系列白皮书[R/OL].(2017-10-31)[2022-05-06]. 

[2] 杨晓静,张福东,胡长斌.机器学习综述[J].科技经济市场,2021(10):40-42.

[3] 王富奎. 高动态环境下智能车局部路径规划研究[D].电子科技大学,2018.

[4] 喻春娇,李奥.人工智能技术对环境污染的影响机制述评[J].决策与信息,2022(01):50-57.

[5] 郎芯玉,张志勇.浅谈人工智能在水质监测领域的应用[J].计算机产品与流通,2019(12):95+98.

[6] Saputra Y M ,  Hoang D T ,  Nguyen D N , et al. Energy Demand Prediction with Federat-ed Learning for Electric Vehicle Networks[J]. IEEE, 2019.

[7] Deep learning in natural language processing[M]. Springer, 2018.

[8] Rumelhart  E . Learning internal representations by error propagations[J]. Parallel Distributed Processing, 1986.

[9] Schmidhuber, Jürgen. Deep Learning in Neural Networks: An Overview[J]. Neural Netw, 2015, 61:85-117.

[10] Srivastava R K ,  Greff K ,  Schmidhuber J . Highway Networks[J]. Computer Science, 2015.

[11] Vaswani A ,  Shazeer N ,  Parmar N , et al. Attention Is All You Need[C]// arXiv. arXiv, 2017.

[12] Jurafsky D ,  Martin J H . Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition[J]. Prentice Hall PTR, 2000.

[13] A. Radford, K. Narasimhan, T. Salimans and I. Sutskever, Improving Language Understanding by Generative Pre-Training, 2018.

[14] Peters M ,  Neumann M ,  Iyyer M , et al. Deep Contextualized Word Representations[J].  2018.