文章探讨了大型语言模型(LLMs),例如GPT-4,是否以及在何种意义上拥有知识。作者认为,这些模型展现了一种称为“工具性知识”的能力,这种知识允许它们根据输入上下文推断任务结构,并在此基础上进行下个词预测。然而,为了将这种工具性知识视为普通意义上的“知识”,它必须包含一定程度关于现实世界的理解——即“常识知识”。尽管LLMs主要是通过大规模互联网文本数据训练来预测下一个单词或标记,但文章探讨了这些模型如何能够通过压缩技术捕捉到一定程度的世俗内容,并且可能通过预训练阶段获取到了超越形式语言能力的知识碎片。文章还提到,某些经过微调的LLMs在处理需要常识知识的任务时表现出色,并且预训练模型可以通过所谓的“情境学习”来执行新任务,这表明它们可能已经吸收了一些超出纯粹语言模式匹配的知识元素。

从任务结构到世界模型: LLMs知道些什么?_语言模型

1 系统为什么要具备知识

因为如果系统展现了惊人的对话能力,能够生成连贯、新颖且往往非常复杂的回答。这种能力引发了对于这些模型是否真正拥有知识的兴趣,而不仅仅是能够模仿人类的语言使用。这涉及到对知识本质的哲学探讨,以及我们如何理解智能的起源。具体来说,如果一个系统展示了工具性知识——即它能够成功地完成各种任务并提供大约保持真实的答案——那么这种知识与我们通常意义上的人类知识有何关联?LLMs是否以及如何能包含类似于人类认知科学中的结构化世界模型,这些都是研究者们关心的问题。此外,考虑到LLMs作为黑盒系统的不透明性及其产生错误信息的倾向,这也引发了对AI系统安全性和与人类价值对齐的需求的关注。因此,探索LLMs是否具备知识不仅是为了学术兴趣,也是为了确保未来AI系统的发展能够符合社会期望的标准。

2 工具性知识

这是一种以特定能力集来定义的知识形式。这种知识不仅仅局限于形式上的语言能力,而是包括了更大范围的功能,比如从语言环境中推断出更深层次的任务结构,并根据这些结构来进行后续词汇的预测。这一概念是为了解释像GPT-4这样的大型语言模型(LLMs)如何能够在多种任务中展现出令人印象深刻的性能,而不仅仅是停留在对语言规则和模式的理解上。工具性知识与我们通常所说的人类“常识知识”不同,但它提供了一个框架,用来探讨这些模型是如何处理任务并表现出看似理解世界的行为。

3 LLM如何获取知识

大型语言模型(LLMs)虽然主要训练于预测下一个单词或标记的文本任务,但它们仍能获得一定的世界知识。这是因为LLMs在预测过程中学会了推断任务结构,并利用上下文进行理解和生成;此外,通过所谓的“情境学习”,即使不更新参数,LLMs也可以通过例子学习新任务,从而展现出超越形式语言能力的表现。这些都表明LLMs能够在一定程度上吸收和利用有关现实世界的信息。

更进一步,如果能通过LLM来构建世界模型,则能加速构建安全、真实与价值对齐的AI系统。

  • 1.解释性:世界模型提供了结构化的、可解释的表示形式,这使得工程师或用户能够直接对系统施加控制,植入他们的“价值观”和安全措施。
  • 2.安全性与一致性:通过世界模型,可以更容易地使AI系统的行为与人类的价值观保持一致,减少意外的值变化风险,确保AI行为的可预测性。
  • 3.高级接口:世界模型作为可编程的中级或高级接口,允许直接对AI行为进行编程,这对于确保AI系统的诚实性和与人类价值的一致性至关重要。
  • 4.资源理性:世界模型允许在系统复杂性和实际需求之间做出合理的资源分配,确保系统在执行任务时不会过度消耗资源,同时保持必要的准确性和功能性。

4 结语

文章探讨了大型语言模型(LLMs)是否拥有知识的问题,提出了LLMs具有由特定能力集定义的“工具性知识”,并讨论了这种知识与人类基于世界模型的“世俗知识”之间的关系及差异。

论文题目: From task structures to world models: What do LLMs know?

论文链接: https://arxiv.org/abs/2310.04276


PS: 欢迎大家扫码关注公众号_,我们一起在AI的世界中探索前行,期待共同进步!

从任务结构到世界模型: LLMs知道些什么?_形式语言_02

精彩回顾

1. 随机多智能体系统中的自然策略能力

2. 通过身份感知学习的多智能体表达式通信

3. 改进的匿名多智能体路径查找算法