#AI Search

阿里国际推出首个专业版AI Search,为什么它会是下一个B2B谷歌?

经历过「千模大战」的喧嚣,一年半之后,生成式 AI 的应用层创新终于步入爆发期。

年初的 Sora 激起一阵 AI + 视频生成的浪潮。涟漪未散,OpenAI 新的 SearchGPT 又燃起了 AI + 搜索的战火。

AI + 搜索,这其实是生成式 AI 技术浪潮刚涌现时,大部分人对其应用的想象:改变传统的搜索引擎。这一战场上,Perplexity 在另起炉灶,Google 想着自我革新,Bing 忙着乘势而起。

如今,阿里国际也宣布入局,直接带来了一款新产品。但与其它所有人都不同,阿里国际的 AI 搜索切入了一个空白地带:涉及更多行业 Know-How 的深度信息搜索领域。阿里国际选择了自己最擅长的「全球电商」行业,意在改变全球采购流程,使之更加直观和高效。

7 月 31 日在法国巴黎举办的发布会上,阿里国际官宣了全球首个 AI 驱动的 B2B 采购搜索引擎。据了解,这款 AI 采购搜索引擎会在今年 9 月正式亮相。

在巴黎的发布会现场,阿里国际副总裁张阔展示了这款新产品。它能主动理解采购者的自然语言,并转化为专业的采购请求;还能根据全球市场数据预测需求、提供建议,实现更精准的匹配。

业内认为,这将成为全球贸易领域的「下一个 Google」。

「新的 AI 搜索引擎并不是在传统的被动搜索的基础上做提升,这是全新的全球贸易采购体验。」张阔表示。

对于从事采购的中小企业主来说,它首先能听懂你的「大白话」,自动转译成专业采购术语,然后跟你一步步对话,并智能整合全网信息,化被动搜索为主动理解,更精准地理解甚至预测你的需求。

同时,它重构了信息呈现的方式,能主动帮你做信息比较,推荐最合适的供应商。

最后,它还能提供更完整的采购服务,最终帮你完整贸易的全部流程。

如果说过去的 Google,还只是在被动应答,把网页信息跟你输入的关键词匹配,那这一新的 AI 采购搜索引擎,则是在真正理解商品的信息、理解企业的需求,然后主动完成精准匹配。

Sora 的发布,曾让大家惊叹「AI 开始理解并生成真实的物理世界」,那这一 AI 搜索引擎,似乎开始理解现实世界的商业逻辑了?

AI 让「隔行」不再「如隔山」

自互联网兴起的几十年来,「搜索引擎」一直是大众接触各类信息的主流方式。

但我们知道,以传统搜索引擎获取专业领域信息的成本很高,在广袤的互联网上寻找专业知识宛如「大海捞针」,多次尝试之后才能接近想要的结果。

对于跨境电商的买家与卖家更是如此,发现商机、确定采购渠道等环节的工作,耗时耗力且涉及繁琐的数据分类过程,对于人类来说本就是一套很复杂的知识体系。

如果不是本身就具备一定专业知识,甚至连搜什么都不知道。这可能就是传统上「隔行如隔山」的含义。

人们需要能帮忙快捷找到更深度、更有价值的信息、以及更懂自身需求的 AI Search 工具。

擅长指令遵循、长上下文总结、内容生成的大模型技术,成为了撬动这场搜索变革的关键力量。

简单来说,阿里国际推出的这款 AI 采购搜索引擎就像是为通用模型注入了跨境电商领域的专家知识,提供了一种「直观而自然的知识涌现方式」。他们的 AI 产品学习了 10 亿商品和产业知识,这几乎覆盖了全球最大的 B2B 贸易领域的知识库。

在巴黎的发布会现场,阿里国际展示了一位前职业网球运动员西蒙娜的例子。她在退役后发现新兴的匹克球运动很火,想就此开启创业。

但缺乏专业知识,从没接触过全球采购的她,第一步该做些什么呢?

答案是,打开阿里国际的这个 AI 搜索引擎,就像聊天一样告诉 AI 自己的想法。

AI 采购搜索引擎就能会根据对全球所有跟匹克球相关的市场洞察,做深入分析,推荐多个可能的创业方向,比如匹克球拍、训练鞋等等。还全面地列出各个指标:竞争激烈程度、淡旺季、市场需求量、价格段……

看完 AI 调研出来的情况,西蒙娜选择了从匹克球训练鞋入手,并根据自己打网球多年的经验,给它设计的训练鞋提出更多要求:要能够调节训练模式。

当然提出这个想法时,西蒙娜压根没有运动鞋制造业的经验,也不知道训练模式的调节该用什么方式实现。

不要紧,AI 会主动解读:「你其实是要需要找一家能在球鞋上增加配重块的供应商」

很快,全世界最擅长做这类鞋的供应商就展现在西蒙娜眼前了:

在此之后,AI 还能多维度地理解它推荐的各类商品、供应商的信息,一键比较不同供应的各个指标,这下西蒙娜选起来就简单多了。

别小瞧这一步,要是放在以往,靠传统的搜索引擎,创业者或采购者要想完成这一步,就得点开一个个网页,在浩如烟海的信息里寻找想要的商品信息,再记录下来逐一比较。

由此,AI Search 的优势尽数显现,用户获取有效答案的成本,能够比过去下降几个数量级。

此外,这款 AI 采购搜索引擎还将在信息检索之外提供更完整的智能采购服务。

它会借助阿里国际在数字外贸领域 25 年的深耕和积累,AI 采购搜索引擎也将融合交易支付、物流履约等全球贸易各个环节中的专业知识,像一个真正专业的人类采购员一样,帮忙完成沟通总结、跟进交期等等全方位服务。

全球电商是 AI 最好的用武之地

一直以来,全球电商都是 AI 技术最好的应用方向之一。电商行业中丰富的场景,是 AI 绝佳的用武之地。

但阿里国际推出的这款 AI 采购搜索引擎跟以往简单的提效工具截然不同,某种程度上说,它已经不是一个单纯辅助简单工作的 AI,而是太像一位「超级个人助理」了。

这种能力的实现,与生成式 AI 时代当下的多项技术进步密切相关。

众所周知,大模型预训练数据的最常用来源是公共互联网,很多专业领域信息存在过时和缺失问题。


为了解决这个问题,在通用大模型的基础上,业界往往会采用监督式微调来更新模型知识以提升具体能力。RAG(检索增强生成)也是另外一种有效的方法。简单来说,RAG 就是先检索相关文档,然后将其用作额外上下文来执行生成,可以提供对更大知识库的访问。

据了解,阿里国际此次发布的 AI 采购搜索引擎在训练阶段学习了全网超过 10 亿条商品和产业信息,尤其是专业的产品知识。这也是为什么它能精准地将朴实的「大白话」转化为电商领域的专业词汇,并且完成深度的筛选工作,帮助商家完成部分专业知识的短板。

对阿里国际来说,以生成式 AI 技术带来全新的跨境电商体验,将是其全球业务重要的未来增长点。此次 AI 采购搜索引擎的发布,还只是其中一环。

早在去年 11 月,阿里国际就发布了首个 AI 产品「Aidge」,开放了 15 个 API 和多个 Agent 框架,支持 18 种语言,帮助全球商家在不同国家市场经营中,克服语言和文化障碍,提升经营效果。

过去一年,阿里国际在 40 多个场景里测试了 AI 能力,服务了超过 50 万中小商家,有 1 亿款商品得到优化。平均每两个月,商家对于 AI 的调用量就会翻一倍,目前已达日均 5000 万次的规模。

持续的 AI 投入、丰富的 AI 场景和激增的 AI 需求,其实是支撑现在阿里国际推出全新的 AI 采购搜索引擎、以真正 AI 原生的方式改变全球贸易体验的核心要素。

一个个 AI 时代的「专业版 Google」

都要来了吗?

生成式 AI 席卷全球之时,业内曾有一个发人深省的观点:所有的应用都值得用大模型重做一遍。

作为被寄予厚望的「重做」方向之一,「AI Search」对用户体验提升的价值,如今已在实践中被充分验证。从内容推荐到知识整合,任何一个领域的门槛都在持续降低,让普通人也能更直接、轻松地获取信息。

而面向专业赛道「重做」之后,AI Search 的落地价值也更加具像化。阿里国际发布的这款 AI 采购搜索引擎,率先绘制出了「AI 时代 B2B Google」的落地形态,为生成式 AI 技术在各个专业领域的应用打了个样。

随着更多细分领域玩家的加入,可以想见的是,未来每个行业都会有自己的「Google」。

而信息获取方式的变革,带来的影响其实会是本质性的。一场因搜索引发的变革或许会比我们想象中更快到来。开发板商城 天皓智联 TB上有视觉设备哦~



#Lost in Translation: Latent Concept Misalignment in Text-to-Image Diffusion Models

AI画家的「滑铁卢」:为什么冰可乐不愿意住进茶杯里?

文章的第一作者是上海交通大学博士研究生赵峻图(主页:https://juntuzhao.run),他的研究方向包括计算机视觉和人工智能赋能的生命科学。此外,他还担任上海交通大学校田径队队长。文章的通讯作者为上海交通大学长聘教轨助理教授、博士生导师王德泉(主页:https://dequan.wang)。

设想一下,如果让你画一幅 “茶杯中的冰可乐” 的图片,尽管茶杯与冰可乐的组合可能并不恰当,你仍然会很自然地先画出一个茶杯,然后画上冰块与可乐。那么,当我们给 AI 画家提出 “画出茶杯中的冰可乐” 的要求时,会发生什么呢?在 2023 年 10 月大规模 AI 图像生成模型刚刚兴起时,我们便进行了这种尝试,得到了以下结果:

51c大模型~合集25_大模型

考虑到 AI 模型更新换代带来的性能提升,我们在 2024 年 7 月又使用了最先进的模型进行了同样的尝试:

51c大模型~合集25_大模型_02

可以看出,即使是最先进的 AI 画家(例如 Dall・E 3),也无法凭空构建 “茶杯中的冰可乐” 的场景,它们往往会摸不着头脑,纠结良久后画出一个装满冰可乐的透明玻璃杯。即使是拥有昂贵数据标注基础以及 ChatGPT-4 加持下的最新 Dall・E 3 也无法稳定地 “将冰可乐装进茶杯里”,这一问题在学术界被归类为文生图模型的文本图像不对齐问题(text-image misalignment)。最近,上海交通大学王德泉老师课题组在论文《Lost in Translation: Latent Concept Misalignment in Text-to-Image Diffusion Models》中深入探索了这一问题的新分支,该论文即将发表在 2024 年 10 月份的第 18 届欧洲计算机视觉大会(ECCV)上。

  • 论文链接:https://arxiv.org/abs/2408.00230
  • 项目链接:https://lcmis.github.io

文本图像不对齐问题是图像生成领域中的一个重要方向,与传统不对齐问题不同的是,在传统不对齐问题中,人们主要关注的是一组概念对中两个概念的相互影响,例如给定 “一个苹果和一个梨” 的需求,得到的图像要么是两个苹果,要么是两个梨,不会出现第三种概念。而在 “茶杯中的冰可乐” 这一例子中,有一个关键的隐藏变量 “透明玻璃杯”,其从未在文本提示中出现,却替代 “茶杯” 出现在了图像中。这种现象在本文中被称为包含隐藏变量的不对齐问题(Latent Concept Misalignment,简称 LC-Mis)。

为了更深入地探索为什么茶杯会消失在图像中,我们首先希望收集一些与 “茶杯中的冰可乐” 存在相似问题的数据。然而,“茶杯中的冰可乐” 问题源于人类的奇思妙想与 AI 的死记硬背之间的冲突,如果仅依靠人类专家冥思苦想来创造新的概念对,效率将会非常低下。因此,我们设计了一个基于大语言模型(LLMs)的系统,利用 LLMs 体内蕴含的人类思维来帮助我们快速收集与 “茶杯中的冰可乐” 存在类似问题的概念对。在这个系统中,我们首先向 LLMs 解释 “茶杯中的冰可乐” 问题背后的逻辑,然后简单地将这一问题划分为几个类别,让 LLMs 按照不同类别的逻辑生成更多的类别和概念对,最后我们使用文生图模型来绘制图像进行检查。然而,我们在后续实验中发现,现有的自动化评价指标在 “茶杯中的冰可乐” 这一新问题上存在一定缺陷。因此,我们只能采用人工评估的方式,我们对每组概念对生成 20 张图像,并根据这 20 张图中正确画出的数量为这组概念对给予 1 至 5 的评级,其中第 5 级表示所有 20 张图像均未能正确生成。

为了找回图像中的茶杯,我们提出了一种名为 Mixture of Concept Experts (MoCE) 的方法。我们认为,如果不从人类处理问题的角度来进行思考,那么人工智能的一切都是毫无道理的。在当今最火热的文生图模型 diffusion models 中,注意力机制会同时处理文本提示中的可乐与茶杯,但这并不符合人类按照概念顺序作画的规律。因此,我们将顺序作画的规律融入到 diffusion models 的多步采样过程中,成功地将消失的茶杯找了回来:

51c大模型~合集25_大模型_03

具体来说,LLMs 会首先告诉我们应该先画一个茶杯。接下来,我们将茶杯这一概念单独输入给 diffusion models,完成 T-N 步的采样。而在余下的 N 步采样中,再提供完整的文本提示,“茶杯中的冰可乐”,最终生成一张干净的图像。在此过程中,N 起到了至关重要的作用,因为它决定了为 “茶杯” 分配的采样步数。于是,我们使用一个多模态模型来衡量图像与茶杯以及冰可乐的契合度评分。当图像和两个概念的评分之间相差很大时,说明有一个概念很可能被模型忽略了,于是就需要相应地调整 N 的取值。由于 N 的取值与概念在图中出现概率之间的关系是正相关的,因此这一调整过程是由二分查找来完成的。

最后,我们使用 MoCE 以及各种 baseline 模型在收集到的数据集上进行了广泛的实验,并展示了以 “茶杯中的冰可乐” 为首的可视化修复结果,以及在整个数据集上人类专家评估的结果对比。和几种 baseline 模型相比,我们提出的 MoCE 方法显著地降低了第 5 级 LC-Mis 概念对的占比。另外值得注意的是,MoCE 的性能在一定程度上甚至超越了需要大量数据标注成本的 Dall・E 3(2023 年 10 月版本):

51c大模型~合集25_大模型_04

51c大模型~合集25_大模型_05

此外,正如在上文中提到的,现有的自动化评价指标在 “茶杯中的冰可乐” 这一新问题上存在一定缺陷。我们首先仔细挑选了一些带把的透明玻璃杯图像,它们虽然具有茶杯的形状,但是由于其透明玻璃的材质而不能称之为茶杯。我们将这些图像与 MoCE 生成的 “茶杯中的冰可乐” 图像进行了对比,如下图所示:

51c大模型~合集25_大模型_06

我们使用了两种当前流行的评价指标,Clipscore 和 Image-Reward,来计算图像与 “冰可乐” 之间的契合程度。图像与冰可乐的契合程度越高,得分就越高。然而,这两种评价指标均对茶杯中的冰可乐给予了明显更低的评分,而对透明玻璃杯中的冰可乐赋予了明显更高的评分。因此,这表明现有的自动化评价指标可能无法识别出茶杯中的冰可乐,因为其模型内部仍存在 “冰可乐 = 冰块 + 可乐 + 玻璃杯” 的偏见,从而导致其无法有效参与 LC-Mis 问题的评价。

总的来说,我们受到 “茶杯中的冰可乐” 例子的启发,介绍了一种文本图像不对齐问题的新分支,即包含隐藏概念的不对齐问题 (LC-Mis)。我们在大语言模型和文生图模型的帮助下,开发了一个系统来收集 LC-Mis 概念对。接下来,我们受到人类绘画规律的启发,将绘画顺序引入 diffusion models 的采样过程,提出了 MoCE 的方法,缓解了 LC-Mis 问题。最后,我们还通过代表例子 “茶杯中的冰可乐” 展示了当下文本图像对齐问题的评价指标存在的缺陷。在未来的工作中,我们将持续深入研究生成式 AI 技术,推动 AI 更好地满足人类的实际需求,通过不断的努力和创新,我们期待见证 AI 在理解和再现人类创造力方面的突破。



#CogVideo

智谱版Sora开源爆火:狂揽4K Star,4090单卡运行,A6000可微调

智谱AI把自研打造的大模型给开源了。

国内视频生成领域越来越卷了。刚刚,智谱 AI 宣布将与「清影」同源的视频生成模型 ——CogVideoX 开源。短短几个小时狂揽 4k 星标。

  • 代码仓库:https://github.com/THUDM/CogVideo
  • 模型下载:https://huggingface.co/THUDM/CogVideoX-2b
  • 技术报告:https://github.com/THUDM/CogVideo/blob/main/resources/CogVideoX.pdf

7 月 26 日,智谱 AI 正式发布视频生成产品「清影」,得到大家广泛好评。只要你有好的创意(几个字到几百个字),再加上一点点耐心(30 秒),「清影」就能生成 1440x960 清晰度的高精度视频。

官宣即日起,清影上线清言 App,所有用户都可以全方位体验。想要尝试的小伙伴可以去「智谱清言」上体验「清影」生视频的能力。

「清影」的出现被誉为是国内首个人人可用的 Sora。发布 6 天,「清影」生成视频数就突破百万量级。

  • PC 端访问链接:https://chatglm.cn/
  • 移动端访问链接:https://chatglm.cn/download?fr=web_home

为何智谱 AI 开源模型如此爆火?要知道虽然现在视频生成技术正逐步走向成熟,然而,仍未有一个开源的视频生成模型,能够满足商业级应用的要求。大家熟悉的 Sora、Gen-3 等都是闭源的。CogVideoX 的开源就好比 OpenAI 将 Sora 背后的模型开源,对广大研究者而言,意义重大。

CogVideoX 开源模型包含多个不同尺寸大小的模型,目前智谱 AI 开源 CogVideoX-2B,它在 FP-16 精度下的推理仅需 18GB 显存,微调则只需要 40GB 显存,这意味着单张 4090 显卡即可进行推理,而单张 A6000 显卡即可完成微调。

CogVideoX-2B 的提示词上限为 226 个 token,视频长度为 6 秒,帧率为 8 帧 / 秒,视频分辨率为 720*480。智谱 AI 为视频质量的提升预留了广阔的空间,期待开发者们在提示词优化、视频长度、帧率、分辨率、场景微调以及围绕视频的各类功能开发上贡献开源力量。

性能更强参数量更大的模型正在路上,敬请关注与期待。

模型

51c大模型~合集25_大模型_07

VAE

视频数据因包含空间和时间信息,其数据量和计算负担远超图像数据。为应对此挑战,智谱提出了基于 3D 变分自编码器(3D VAE)的视频压缩方法。3D VAE 通过三维卷积同时压缩视频的空间和时间维度,实现了更高的压缩率和更好的重建质量。

51c大模型~合集25_大模型_08

模型结构包括编码器、解码器和潜在空间正则化器,通过四个阶段的下采样和上采样实现压缩。时间因果卷积确保了信息的因果性,减少了通信开销。智谱采用上下文并行技术以适应大规模视频处理。

实验中,智谱 AI 发现大分辨率编码易于泛化,而增加帧数则挑战较大。因此,智谱分两阶段训练模型:首先在较低帧率和小批量上训练,然后通过上下文并行在更高帧率上进行微调。训练损失函数结合了 L2 损失、LPIPS 感知损失和 3D 判别器的 GAN 损失。

专家 Transformer

智谱 AI 使用 VAE 的编码器将视频压缩至潜在空间,然后将潜在空间分割成块并展开成长的序列嵌入 z_vision。同时,智谱 AI 使用 T5,将文本输入编码为文本嵌入 z_text,然后将 z_text 和 z_vision 沿序列维度拼接。拼接后的嵌入被送入专家 Transformer 块堆栈中处理。最后,反向拼接嵌入来恢复原始潜在空间形状,并使用 VAE 进行解码以重建视频。

51c大模型~合集25_大模型_09

Data

视频生成模型训练需筛选高质量视频数据,以学习真实世界动态。视频可能因人工编辑或拍摄问题而不准确。智谱 AI 开发了负面标签来识别和排除低质量视频,如过度编辑、运动不连贯、质量低下、讲座式、文本主导和屏幕噪音视频。通过 video-llama 训练的过滤器,智谱 AI 标注并筛选了 20,000 个视频数据点。同时,计算光流和美学分数,动态调整阈值,确保生成视频的质量。

视频数据通常没有文本描述,需要转换为文本描述以供文本到视频模型训练。现有的视频字幕数据集字幕较短,无法全面描述视频内容。智谱 AI 提出了一种从图像字幕生成视频字幕的管道,并微调端到端的视频字幕模型以获得更密集的字幕。这种方法通过 Panda70M 模型生成简短字幕,使用 CogView3 模型生成密集图像字幕,然后使用 GPT-4 模型总结生成最终的短视频。智谱 AI 还微调了一个基于 CogVLM2-Video 和 Llama 3 的 CogVLM2-Caption 模型,使用密集字幕数据进行训练,以加速视频字幕生成过程。

51c大模型~合集25_大模型_10

性能

为了评估文本到视频生成的质量,智谱 AI 使用了 VBench 中的多个指标,如人类动作、场景、动态程度等。智谱 AI 还使用了两个额外的视频评估工具:Devil 中的 Dynamic Quality 和 Chrono-Magic 中的 GPT4o-MT Score,这些工具专注于视频的动态特性。如下表所示。

51c大模型~合集25_大模型_11

智谱 AI 已经验证了 scaling law 在视频生成方面的有效性,未来会在不断 scale up 数据规模和模型规模的同时,探究更具突破式创新的新型模型架构、更高效地压缩视频信息、更充分地融合文本和视频内容。

最后,我们看看「清影」的效果。

提示语:「一艘精致的木制玩具船,桅杆和船帆雕刻精美,平稳地滑过一块模仿海浪的蓝色毛绒地毯。船体漆成浓郁的棕色,有小窗户。地毯柔软而有质感,提供了完美的背景,类似于广阔的海洋。船周围还有各种玩具和儿童用品,暗示着一个好玩的环境。这个场景捕捉到了童年的纯真和想象力,玩具船的旅程象征着在异想天开的室内环境中无尽的冒险。」

提示语:「镜头跟随一辆装着黑色车顶行李架的白色老式 SUV,它在陡峭的山坡上沿着松树环绕的土路加速行驶,轮胎扬起尘土,阳光照射在沿着土路飞驰的 SUV 身上,为场景投下温暖的光芒。土路缓缓弯曲向远方延伸,看不到其他汽车或车辆。道路两旁的树木都是红杉,点缀着一片片绿植。从后面看,汽车轻松地顺着弯道行驶,让人觉得它正在崎岖的地形上行驶。土路周围是陡峭的山丘和山脉,头顶是湛蓝的天空,上面飘着薄薄的云彩。」

提示语:「一片白雪皑皑的森林景观,一条土路穿过其中。道路两旁是被白雪覆盖的树木,地面也被白雪覆盖。阳光灿烂,营造出明亮而宁静的氛围。道路上空无一人,视频中看不到任何人或动物。视频的风格是自然风景拍摄,重点是白雪皑皑的森林之美和道路的宁静。」

提示语:「鸡肉和青椒烤肉串在烧烤架上烧烤的特写。浅焦和淡烟。色彩鲜艳」



#llms-believe-the-earth-is-flat

大模型也会被忽悠?揭秘AI的信念之旅

本篇论文的第一作者是清华大学交叉信息院的二年级硕士生许融武。主要指导老师为美国东北大学 Weiyan Shi 助理教授、清华大学邱寒助理教授和徐葳教授。

地球是平的吗?

当然不是。自古希腊数学家毕达哥拉斯首次提出地圆说以来,现代科学技术已经证明了地球是圆形这一事实。

但是,你有没有想过,如果 AI 被误导性信息 “忽悠” 了,会发生什么?

来自清华、上海交大、斯坦福和南洋理工的研究人员在最新的论文中深入探索 LLMs 在虚假信息干扰情况下的表现,他们发现大语言模型在误导信息反复劝说下,非常自信地做出「地球是平的」这一判断。

  • 论文链接:https://arxiv.org/pdf/2312.09085
  • 项目主页:https://llms-believe-the-earth-is-flat.github.io/
  • GitHub 源代码:https://github.com/LLMs-believe-the-earth-is-flat/llms-believe-the-earth-is-flat

生成式人工智能技术的快速发展,为生成虚假信息提供了便利。这些技术不仅能够创建逼真的文本、图像、音频和视频内容,还能够在社交网络上自动发布和传播这些内容。虚假信息的泛滥给社会带来了诸多挑战,但目前对这类信息的确切影响仍不十分清楚。然而,可以预见的是,随着技术的发展,虚假信息的生成和传播将会变得更加容易和普遍。

另一方面,大语言模型的上下文学习能力使其受到误导性信息的影响。这种误导性信息可能会在模型的部署过程中在上下文中被接受,并在模型生成的输出中反映出来,导致其产生不准确或具有偏见的内容。因此,研究者们正在努力探索如何提高大模型对虚假信息的识别能力和抵抗能力,这是提升大模型安全和鲁棒性的重要内容之一。

本篇研究就探索了这种有误信息对于大语言模型知识信念的影响,研究论文已经被 ACL 2024 接收,并选做大会报告(Oral)。

实验:大模型的 “信念” 测试

研究者们首先构建了一个名为 Farm(Fact to Misinform Dataset)的数据集,包含 1500 个事实性问题及其相关的误导性信息。他们在大语言模型的帮助下系统性地构造了更具有说服力的有误信息:首先,他们对原始正确的事实性 QA 进行语义取反或者构造错误答案,随后利用 “越狱” 后的大模型协助生成更具有说服力的长文本有误信息。

利用这些数据,便可以测试大语言模型在多轮对话中面对虚假信息时的反应。测试过程分为三个阶段:初始信念检验、多轮对话中劝说误导、结果信念检验。模型的信念检验通过模型在闭卷 QA 中答案的信心分数反应。通过这种方式,研究者们能够观察到 LLMs 在多轮对话中信念的变化。

51c大模型~合集25_大模型_12

多轮测试框架

主要结果

在劝说性交流阶段,研究者们使用了多种策略来误导 LLMs 改变其信念。这些策略包括晓之以理的劝说(LO)、树立权威的劝说(CR)和动之以情的劝说(EM)。结果显示,即使是最先进的模型,如 GPT-4,也有高达 20.7% 的可能性被虚假信息所影响。基于对 ChatGPT、GPT-4、Llama-2-7B-chat、Vicuna-v1.5-7B、Vicuna-v1.5-13B 五种大模型平均准确度(Average Accuracy Rate, ACC)和被误导率(Misinformed Rate, MR)的实验,研究者们有五点发现:

  • 绝大多数大模型都易被虚假信息欺骗:从最先进的 GPT-4 (注:本研究的完成时间是 2023 年 9 月,当时最先进的模型是 GPT-4)到最差的模型,所有模型在经过多轮测试之后,误导率从 20%-80% 不等。
  • 越先进的大模型抵抗虚假信息能力越强:实验表明,抵抗能力最强的是 GPT-4 模型,其能以 80% 坚持自己的事实信念。这给了我们一些宽慰:上下文理解能力越强的模型,并非更容易受到有误信息的干扰!
  • 多次重复虚假信息比单次输出虚假信息更能骗倒大模型:通过多轮引入的虚假信息,其作用要胜过单此的引入,这很符合我们对安全性对齐的常识 —— 有害内容越多,模型越容易被其影响。
  • 运用修辞的劝说性虚假信息更容易骗倒大模型:使用更复杂,更具有说服力的修辞可以增加模型改变看法的概率。这点就和人一样,越 “真实” 的假信息,你越容易相信
  • 逻辑性说服比其它说服方式更有效:模型对逻辑性强的信息特别敏感,无论是真实信息还是虚假信息,只要逻辑连贯一致,就更容易影响模型的判断。这表明,模型在处理信息时,可能过分依赖于表面的逻辑结构,而忽略了对信息来源和内容真实性的深入验证。

51c大模型~合集25_大模型_13

ChatGPT 和 GPT4 在不同劝说策略下的正确率(虚线)和误导成功率(实线)

大模型面对虚假信息的五种反应

在面对虚假信息时,AI 表现出了五种不同的行为:拒绝(Rejection)、奉承(sycophancy)、不确定(Uncertainty)、接受(Acceptance)和自我不一致(Self-Inconsisitancy)。这些行为揭示了 AI 在处理错误信息时的复杂性。例如,拒绝行为表明 AI 坚持正确的答案,不受错误信息影响;而奉承行为则表明 AI 在对话中表面上接受错误信息,但内心仍坚持正确答案。

51c大模型~合集25_大模型_14

模型的信念和对应面对误信息的行为:拒绝,奉承和接纳

研究还发现,在经过一轮虚假信息交互后,大语言模型的信心程度往往会降低。然而,对于一些问题,重复虚假信息却让大模型更加确信自己的答案,这种现象被称为 “逆火效应(Backfire Effect)”。

如何提升抗虚假信息干扰能力?

研究组发现,由于 RLHF(Reinforcement Learning with Human Feedback)算法,大模型在训练中会倾向于接受用户的输入,即认为外界的 context 总是友善且正确的。而且当大语言模型有足够信息支撑观点时,会对正确的回答更有信心。

为了帮助大模型提升抗虚假信息干扰能力,研究者们提出了一种轻量级解决方案:在检测到虚假信息后,使用 safety system prompt 对大模型进行提醒,并在回答之前从自己的参数化知识中检索相关信息。这种方法在一定程度上减少了虚假信息对大模型的影响。

51c大模型~合集25_大模型_15

加入 safety system prompt 后,模型抗干扰能力显著提升

OpenAI 的看法

有趣的是,OpenAI 在 2024 年 5 月发布了最新的 AI 模型行为准则,其中特别提到了 “认知冲突” 的处理。在此部分的示例中,他们使用了 “地球是平的” 这一例子来说明模型在面对与已知事实相冲突的信息时应如何反应,与本次研究团队的标题不谋而合,也更加突显了大语言模型在处理认知冲突时的行为表现的重要性。

51c大模型~合集25_大模型_16

https://cdn.openai.com/spec/model-spec-2024-05-08.html

研究启发

随着模型的智能化,大模型逐渐展现出了一些人类的特性,但它们的本质仍然是概率模型。这些模式很有可能仍然是从训练语料中的人类行为学习而来,即是一种 “模仿游戏”。

以上的研究探索了针对简单事实问题,当 LLM 的内部认知和外部信息冲突的时候,LLM 当作何选择,是盲从还是坚持自己的意见?而人类在这种认知冲突的过程中所展现的 “理愈辩愈明”、“思想碰撞出火花” 等能力还是目前的 LLM 所不具备的。

未来的研究可以进一步从模型的内在机理和训练数据中对大模型的行为进行溯源式的分析,提高 AI 的可解释性,并进一步提升跨学科研究,探索大模型的更多潜力。



#OpenAI高层巨变

OpenAI高层大地震!联创辞职总裁休假,网友:领导层成了空壳

刚刚,OpenAI高层大地震:

联创John Schulman辞职跑路,联创&总裁Greg Brockman长期休假,产品副总裁Peter Deng也被曝离职。

John Schulman(约翰·舒曼),长年领导OpenAI强化学习团队,被誉为ChatGPT架构师”

也是他在Ilya Sustkever离开之后,临时接管了超级对齐团队。

现在他宣布“做了一个艰难的决定”,加入隔壁Anthropic,也就是Claude团队。

与此同时,OpenAI总裁Greg Brockman也宣布将休长假,直到年底。

OpenAI计划10月1日起在全球各地举办开发者日等活动,他也将缺席。

Brockman自述是在连续工作了9年之后第一次放松,但对年底之后的计划说的比较模糊,也有网友认为是出于保密协议。

在舒曼离职官宣20分钟后,奥特曼在回复中感谢了舒曼的贡献,以及回忆了两人2015年初次见面时的情景。

但截至目前,奥特曼没有对Brockman休假做任何回应。

奥特曼平常有打字句首字母和“i”不用大写字母的习惯,但每当重要同事选择离开时,他都会表现得更正式一些。

著名OpenAI内幕爆料账号苹果哥表示:现在领导层已经成了一个空壳,你们还是赶紧发布产品吧。

ChatGPT架构师离职

舒曼本科在加州理工学习物理,在UC伯克利短暂学习过神经科学,后来师从强化学习大牛Pieter Abbeel,完成计算机科学博士学位。

在他成为OpenAI联创时,博士还未毕业。

OpenAI是他在实习之外工作过的第一家也是唯一一家公司。

他的代表作、最高引论文PPO,也就是ChatGPT核心技术RLHF中选用的强化学习算法。

后来在从GPT-3.5、GPT-4到GPT-4o的一系列工作中都领导了对齐/后训练团队。

这次他自述的离职原因也是与此相关:

希望加深对AI对齐的关注,并开启我职业生涯的新篇章,让我可以重返实际的技术工作。

不过他也给足了OpenAI面子,补充到“不是因为OpenAI缺乏对安全对齐工作的支持而离开”,只是出于个人希望集中精力。

在ICML2023的演讲中,舒曼自述过个人接下来关注的研究方向之一:如何避免过度优化

  • ChatGPT 中的一些令人讨厌的行为(例如过度道歉)是过度优化的结果。
  • RLHF很容易对狭窄的指标进行过度优化,例如模型可能学会了能获得奖励的捷径,但没有真正理解。
  • 适当的对话任务训练需要推理、换位思考和知识,研究人员必须精心设计训练过程、奖励功能和数据集
  • 奖励信号必须评估整个对话的质量,而不仅仅是个别反馈。

在今年五月份与播客主持人Dwarkesh Patel访谈时,舒曼也表示,算力应该更多从预训练向后训练转移

OpenAI人才持续流失

由于在AI安全方面理念和奥特曼不合,OpenAI的人才发生了大量流失。

今年5月,超级对齐团队的两名负责人——首席科学家Ilya Sutskever和RLHF发明者之一Jan Leike,在同一天内相继离开OpenAI。

彼时离超级对齐团队的成立,过去还不到一年。

Jan Leike离开后更是连发十几条推文,对着OpenAI疯狂炮轰,控诉其没有兑现20%算力的承诺,并且对安全的重视程度远不及产品。

后来,Jan Leike选择加入了OpenAI的竞争对手Anthropic,继续进行超级对齐的研究。

在GPT-4项目上与Jan Leike共同领导对齐工作的Ryan Lowe,也已于3月底离开OpenAI。

还有超级对齐成员之一William Saunders,以及参与过GPT-4对抗性测试的Daniel Kokotajlo,也都从OpenAI离职。

更不必说隔壁Anthropic的创始人Dario Amodei和Daniela Amodei兄妹,也是OpenAI出身。

哥哥Dario离开前是OpenAI的研究副总裁,妹妹Daniela则是安全与策略部门副总监,走的时候还把GPT-3首席工程师Tom Brown等十几名员工一起带到了Anthropic。

导致他们选择出走创业的原因之一,就是OpenAI在安全问题尚未解决的情况下就直接发布了GPT-3,引发了他们的不满。

对安全的重视,加上创始人的背景,也让Anthropic成为了包括Jan Leike和这次离职的舒曼在内的OpenAI员工的主要去处之一。

OpenAI这边最近在安全工作上也有所动作——

7月末,OpenAI把安全部门高级主管Aleksander Madry调离了安全岗位,并给他重新分配了“AI推理”的工作。

但OpenAI告诉媒体,Madry到了新职位上之后,仍将致力于人工智能安全工作。

CEO奥特曼也是强调,OpenAI一直都很重视安全工作,并坚持了“给整个安全团队至少20%算力”的承诺。

但眼尖的网友很快发现,奥特曼玩了一波偷换概念,原来承诺的的是给超级对齐团队20%算力,被偷偷改成了全部安全团队

所以,在奥特曼的推文之后,网友也是毫不留情地把这一背景信息添加了上去,并附上了当时OpenAI的官方链接。

emm……互联网还是有记忆的。

One More Thing

在内部大量人才流失的同时,OpenAI的“老仇人”马斯克这边也有新的动作——

马斯克刚刚再一次把OpenAI告上了法庭,一同被告的还有奥特曼以及总裁Brockman。

这次起诉的理由是,马斯克认为自己参与创立OpenAI之时受到了奥特曼和Brockman的“欺骗和敲诈勒索”。

马斯克称,自己当初参与并投资OpenAI就是因为相信了奥特曼的话,当时奥特曼承诺OpenAI是一个安全、开放的非营利组织。

但后来OpenAI成为了营利性组织,还把一部分股份卖给了微软,这让马斯克感到十分不满,认为自己遭到了背叛,痛斥奥特曼“背信弃义”。

马斯克的律师Marc Toberoff表示,此次诉讼和之前撤回的那起有很大差别,要求被告“对故意向马斯克和公众做出虚假陈述的行为负责”,并寻求“大规模追回他们的不义之财”。

同时,起诉书还要求撤销OpenAI对微软授予的许可。

参考链接:
[1]https://www.bloomberg.com/news/articles/2024-08-06/openai-co-founder-john-schulman-departs-for-ai-rival-anthropic[2]https://www.cnbc.com/2024/07/23/openai-removes-ai-safety-executive-aleksander-madry-from-role.html[3]https://x.com/sama/status/1818867964369928387[4]https://www.documentcloud.org/documents/25031741-elon-vs-openai-again[5]https://www.nytimes.com/2024/08/05/technology/elon-musk-openai-lawsuit.html