AIGC的模型发展

AIGC的模型通过学习已有数据的特征,利用随机数生成、概率预测等方式来生成新的内容。AIGC的模型发展可以说是一个漫长且不断进化的过程。

 

关于AIGC是根据已有数据进行猜测这一点,数学家陶哲轩曾表示:人工智能是一项了不起的技术,会加速科学和数学,但它不是一种“魔法”,有时有点被夸大了。

人工智能基本上是一台猜测机器,是一个可以让你输入信息的软件,实现方式在数学上是相当普通的。

当人工智能发挥作用时,真是太神奇了,但当它不起作用时,情况可能会非常糟糕。

尽管人工智能具有巨大潜力,但安全性尚未达标。在下行风险很小的场景,人工智能有很好的应用前景。

与许多其他学科相比,将人工智能应用于数学的负面影响要小得多。

人工智能使得真正的大型数学项目成为可能。

人工智能和数学将会产生巨大的协同作用,催生出一个大数学时代。

 

AIGC的模型一直在不断升级,有以下几种主要的模型。

生成对抗网络(GAN):这是一种对抗生成模型,由生成器和判别器组成,生成器生成的数据通过判别器来判断是否与真实数据相似,并不断更新生成器的参数。在AIGC领域的核心优势是其生成的图像更加逼真,更具有多样性,如下页下图所示。GAN可以生成更多的图像,并且可以生成从未见过的图像,而不仅仅是复制训练集中的图像。因此,它

在生成图像、生成视频、生成动画、生成虚拟数据等领域具有广泛的应用。

人工智能AIGC入门四_生成器

变分自编码器(VAE):这是一种自动编码器的变体,利用变分推理来生成数据。在生成的数据中加入噪声时,它仍然能够保持较高的生成质量。因此,在需要处理噪声多的场景中,使用VAE可以生成更加符合预期的数据。

人工智能AIGC入门四_人工智能_02

Transformer:具有注意力机制和并行化的处理能力,这使得它能够有效处理大规模的序列数据。Transformer模型可以在保持较高精度的情况下快速训练,这是其在AIGC领域的一个重要优势。在AIGC中常常被用于自然语言处理任务,如机器翻译、文本分类、语言生成等。

 

循环神经网络(RNN):RNN模型是生成连续序列数据的方法之一,它可以捕捉到序列数据中的长期依赖关系,并使用它们来生成新的数据。具体来说,在生成一个序列数据时,RNN模型会记录原序列中的每一项和生成的上一项,并使用这些信息来生成下一项,如下图所示。因此,RNN模型通常被用于生成文本、语音和音乐等连续序列数据。

 

人工智能AIGC入门四_生成器_03

AICG模型的发展:

20世纪80年代至90年代:早期的生成技术主要基于语法树和马尔科夫链,通过结合预先定义的语言规则来生成文本

21世纪10年代:随着深度学习技术的发展,生成式Al逐渐演变为以神经网络为基础的生成技术。在这一时期,发展出了一些重要的生成模型,如语言模型和循环神经网络。

2015:生成对抗网络(GAN)模型诞生,它通过让两个神经网络相互竞争来生成图像和其他媒体内容。

2017: Transformer模型问世,它通过对大量数据进行学习,能够生成高质量的文本。

2019:以Transformer为基础的GPT-3诞生,它具有极高的生成能力,能够生成文本、代码、音乐等多种类型的内容。

21世纪20年代:随着技术的不断进步,生成式A|技术也在不断进化,例如变分自编码器( VAE)和自注意力生成对抗网络( AGAN)等。