©NLP论文解读 原创•作者 | 吴雪梦Shinemon
研究方向 | 计算机视觉
导读说明
在NLP模型被建立后,如何更好的评价该模型一直以来都是被广泛讨论与关注的问题,而且评价方法不尽相同,研究人员通常会花费大量的时间提出不同的参数来评估该模型,评价指标也多元化。
现有的NLP评价指标中表现良好的模型,由于分布变化和噪声数据等漏洞,在部署到现实应用中并不一定能取得如期的良好表现。该论文提出的Robustness Gym(RG)评价框架,旨在减小学术上模型评价和现实应用之间的差距。
论文解读:
Robustness Gym: Unifying the NLP Evaluation Landscape
论文作者:
Karan Goel, Nazneen Rajani, Jesse Vig, Samson Tan, Jason Wu, Stephan Zheng, Caiming Xiong, Mohit Bansal, Christopher Ré
论文地址:
https://arxiv.org/pdf/2101.04840.pdf
代码地址:
https://github.com/robustness-gym/robustness-gym
研究背景
在NLP中,当训练数据和测试数据独立并具有相同分布时,说明该模型获得了较高的准确性。然而,一些研究表明[1],这些模型对于数据错误,分布位移或有害数据操作并不稳妥,从而进行预测的数据准确度有失偏颇。
事实上,这些缺陷限制了对不可见数据的应用,为了解决这些漏洞,对NLP模型的鲁棒性进行测试,并且引入了一个简单且可扩展的鲁棒性测试工具包Robustness Gym (RG)框架,它支持从对抗性攻击到基于规则的数据增强的所有评估方法。
该框架统一了四个标准评估范式: 评估集、子种群、转换和对抗性攻击。通过提供一个通用的评估平台,就可以比较所有四种评估范式的结果,还可以用于协作构建和共享评估和结果。
面临的挑战
RG框架用于系统地评估NLP系统,它可以跨多种习语用法工作,处理数据错误、分布变化、偏差等。目前面临的问题有以下几点:
●选择悖论: 给定一个特定的问题及其规范,要运行什么样的评估,比如偏向性、泛化等。
●习语锁定: 执行它的工具的选择。
●工作流碎片化: 通过保存所有的数据和生成报告来跟踪所有的进度。
论文作者解释了现有的工具和研究为何无法解决这些问题,详细说明见原论文。
然而,RG框架通过Contemplate(思考)->Create(创建)-> Consolidate(巩固)评估循环来解决上述挑战。
RG框架VS传统评价
传统评价
NLP模型在标准基准测试中和实际系统应用中的性能并不一致。最近的一项研究表明[2],60%的NLP结果与它们的训练数据相似度很高,这意味着模型只是在记忆他们的训练集。
许多研究人员正在测试这些NLP模型的鲁棒性,以应对各种挑战,如对抗性攻击和基于规则的数据转换。传统上,评价程序大致包括三个步骤:
◾加载数据;
◾使用内置模型生成预测;
◾计算指标。
RG框架评价
同样的过程被分为六步,如下图1所示。
图1. RG系统工作流程图
Fig1. Robustness Gym system design and workflow
▶加载数据
RG支持Huggingface数据集(轻量级库,467种语言和方言),易使用。
▶计算缓存端信息(Contemplate,示例见本文链接地址)
先对数据进行一些预处理,并计算示例中的一些信息,这些信息之后可以用于分析。CachedOperation的思想与数据集上的.map()非常相似,此外还可以提供之前缓存过的任何信息。
▶构建切片(Create)
在缓存信息的帮助下,制作数据切片。这些片只是计算示例的集合,它们提供了一种检索缓存信息的方法。目前,RG支持四种类型的切片:
①评估集:由预先存在的数据集构造的切片;
②子种群:通过过滤更大的数据集构建的切片;
③转换:通过转换数据集构造的切片;
④对抗性攻击:通过对抗性攻击数据集构造的切片。
▶评估切片(Consolidate)
RG提供了一个TestBench抽象类方法,用户可以组装并版本化一组切片,形成一套评估方式。
▶生成评估报告
共享TestBench类,生成一份可共享的鲁棒性报告,其他用户可以在协作中复用或重做分析。
▶过程迭代
RG框架帮助用户了解各种变量(如任务结构),评估需求(如测试泛化、偏差或安全性)以及资源限制,从而完成评估任务。
如下图2所示,传统评估过程是无法达到上述要求的:
图2. RG框架VS传统评价
Fig2. Robustness Gym system VS traditional evaluation model
实验结果
论文作者与Salesforce的商业情绪建模团队用一案例进一步验证了RG框架过程,目的是测量他们模型的偏差。
在跨越三个评估习语用法的172个切片上测试了他们的系统,发现12个切片的性能下降高达18%,由此可见RG系统的必要性。
最后,研究人员为团队生成了一个单一的测试平台和鲁棒性报告,总结了研究结果。测试结果如下图3所示的鲁棒性报告:
图3. 基于Bert的自然语言推理
SNLI数据集鲁棒性报告
Fig3. Robustness Report for Natural Language Inference using bert-base on SNLI
此外,论文作者使用命名实体链接(NEL)系统进行了一项研究,并对摘要模型进行了关键分析。
他们将微软、谷歌和亚马逊的商业API与开源系统Bootleg,WAT和REL进行了比较,对比了两个基准数据集:Wikipedia 和AIDA-CoNLL。
结果显示,上面提到的商业系统,很难将稀有实体联系起来,落后于学术同行10%以上,而摘要模型在需要抽象和蒸馏的例子上也不乐观,下降了9%以上。
如下图4所示可以看出,微软的表现优于其他商业系统,而Bootleg在不同的部分表现最平稳。详细过程见原论文。
图4. AIDA数据集上NEL鲁棒性报告
Fig4. Robustness Report for NEL on AIDA
RG框架加载后平台显示数据详细信息如下图5,直观且快捷,根据显示的信息可以对NLP模型作进一步优化:
图4. RG系统中SNLI数据集分析结果
Fig4. SNLI Dataset analysis on Robustness Gym system
实验
RG框架已经被开发为NLP模型的评估工具包,它支持广泛的评估习语用法,并与传统方法相比,研究了该框架中所需的所有步骤,显然效果更加显著。
该框架可以用于协作构建和共享评估和结果。为了解决实践者面临的挑战,论文作者将框架嵌入到上述评估循环中。
实验结果表明,RG框架对研究人员和实践者来说是一个很有前途的工具。有兴趣的语言模型爱好者可以在论文代码地址中下载包,体验测评,感受它的魅力。
参考文献:
[1] Yonatan Belinkov and Yonatan Bisk. Synthetic and natural noise both break neural machine translation. ArXiv, abs/1711.02173, 2018.
[2] Question and Answer Test-Train Overlap in Open-Domain Question Answering Datasets. ArXiv:2008.02637,2020.