Event Extraction

  • Crosslingual Transfer Learning for Relation and Event Extraction via Word Category and Class Alignments 讲解地址 本篇论文提出一个新的方法对REE(关系抽取和事件抽取)进行跨语言迁移学习,利用类的语义和通用的词类别(词性和依赖关系)作为跨语言对齐表示向量的桥梁,利用未标注的目标语言数据,进行语言独立的表示学习。
  • nlp attention 采样 nlp事件抽取_数据集

  • Joint Multimedia Event Extraction from Video and Article 讲解地址 本篇论文提出了一个新的问题:视频多模体事件抽取,同时构造了一个新的数据集(包含事件类型、事件论元和角色、论元边界、文本和视频中事件的跨模态共指解析)。提出了一个自监督的训练策略,发现共指的句子和视频段。使用一个多模体transformer结构,利用特定的解码器进行联合文本和视频事件以及论元提取。在事件共指消解、事件抽取和论元角色标注任务中超过单模态和多模态baseline。
  • nlp attention 采样 nlp事件抽取_nlp attention 采样_02

  • Exploring Sentence Community for Document-Level Event Extraction 讲解地址 本篇论文提出一个基于GAT的模型,利用Sentence Community(文本和事件的邻接矩阵),缓解多事件问题和角色重叠问题,提高了文档级事件抽取任务的性能。
  • nlp attention 采样 nlp事件抽取_Graph_03

  • ExcavatorCovid: Extracting Events and Relations from Text Corpora for Temporal and Causal Analysis for COVID-19 讲解地址 从文章中抽取COVID-19事件和时间、位置论元。抽取一对事件的时序和因果关系,构建可视化的时序和因果分析图
  • nlp attention 采样 nlp事件抽取_事件抽取_04

  • Corpus-based Open-Domain Event Type Induction
    传统的事件抽取方法需要预先定义的事件类型,本篇论文提出一个基于语料库,开放域的事件类型归纳方法,使用<predicate sense, object head(object中最重要的一个词)>的集合表示事件类型,然后进行聚类。
  • nlp attention 采样 nlp事件抽取_自然语言处理_05

Event Detection

  • Learning Constraints and Descriptive Segmentation for Subevent Detection讲解地址 将基于事件的文本分割作为辅助任务,提高子事件检检测(subevent detection, event hierarchy extraction)的性能。为了捕捉两个任务间的依赖关系,使用一个方法(Rectifier Network)自动的学习和执行逻辑依赖。
  • nlp attention 采样 nlp事件抽取_Graph_06

  • Lifelong Event Detection with Knowledge Transfer 讲解地址 定义了一个新任务lifelong event detection(增量学习,不断学习和预测新的事件类型),提出一个模型,通过在旧事件类型和新的事件类型间迁移知识,缓解严重的类型不平衡问题。
  • nlp attention 采样 nlp事件抽取_nlp attention 采样_07

  • Treasures Outside Contexts: Improving Event Detection via Global Statistics 讲解地址 本篇论文提出一个Semantic and Statistic-Joint Discriminative Network用于事件检测任务,使用语义特征(上下文)和每个词的统计特征,进行决策,在ACE 2005和KBP 2015数据集上达到SOTA。
  • nlp attention 采样 nlp事件抽取_事件抽取_08

  • Modeling Document-Level Context for Event Detection via Important Context Selection 讲解地址 提出一个模型,通过选择句子的重要上下文(不需要对长句子进行截断),使用BERT进行事件检测(序列标注和词分类),性能得到SOTA。
  • Honey or Poison? Solving the Trigger Curse in Few-shot Event Detection via Causal Intervention
    在few-shot事件检测中,以因果的角度解决trigger curse问题(过度拟合触发词会损害泛化能力,而欠拟合会损害检测性能)
  • nlp attention 采样 nlp事件抽取_自然语言处理_09

  • Learning Prototype Representations Across Few-Shot Tasks for Event Detection
    解决了用于事件检测的小样本学习中的采样偏差和异常值问题,通过引入跨任务原型来模拟小样本学习中训练任务之间的关系,在跨任务的分类器之间强制预测一致性。
  • Self-Attention Graph Residual Convolutional Networks for Event Detection with dependency relations 讲解地址 提出了一个Self-Attention Graph Residual Convolutional网络,使用注意力机制融合句法结构和潜在依赖关系,提高事件检测任务的性能,同时使用残差连接解决图信息消失问题。
  • nlp attention 采样 nlp事件抽取_数据集_10

Event Argument Extraction

  • Machine Reading Comprehension as Data Augmentation: A Case Study on Implicit Event Argument Extraction 讲解地址 使用一个新的角度解决事件论元抽取的数据稀疏问题:机器阅读理解,提出了两种数据增强的方法:隐含知识迁移和解释数据增强。
  • nlp attention 采样 nlp事件抽取_数据集_11


Event Coreference Resolution

  • Conundrums in Event Coreference Resolution: Making Sense of the State of the Art
    对最先进的基于span的事件共指解析器进行了实证分析。
    event coreference:识别事件提及(触发词、论元、参数)是否表示相同的事件。
    attribute prediction:预测事件提及的参数(如ACE 2005中的TENSE属性包括4个可选值:PAST, PRESENT, FUTURE, UNSPECIFIED)
    anaphoricity prediction:确定事件提及是否与任何先前提及具有关联性。
  • nlp attention 采样 nlp事件抽取_数据集_12

  • A Comprehensive Comparison of Word Embeddings in Event & Entity Coreference Resolution
    在事件共指消解和实体共指消解任务中,比较embedding对性能的信息。
  • nlp attention 采样 nlp事件抽取_Graph_13

  • Event Coreference Data (Almost) for Free: Mining Hyperlinks from Online News
    从在线新闻的超链接中提取事件共指数据,可以自动创建跨文档事件共指数据集(事件提及为可点击的超链接文本,根据超链接确定共指关系)。
  • nlp attention 采样 nlp事件抽取_nlp attention 采样_14

Event Schema Induction

  • The Future is not One-dimensional: Complex Event Schema Induction by Graph Modeling for Event Prediction
    以前事件模式归纳的工作忽视了事件之间通过论元和论元关系的相互作用,本篇论文引入了Temporal Complex Event Schema的概念:基于图的模式表示,包含事件、论元、时序连接和论元关系。

Event Temporal Relations

  • Extracting Event Temporal Relations via Hyperbolic Geometry
    以前的事件时序抽取通常映射事件的编码到欧式空间,由于欧式空间不能捕获更丰富的不对称关系,例如事件时序关系,本片论文编码事件到双曲空间。
  • ECONET: Effective Continual Pretraining of Language Models for Event Temporal Reasoning
    提出了一种持续的预训练方法,为 预训练模型提供有关事件时序关系的目标知识。设计了自监督的学习目标,以恢复被掩盖的事件和时间标识,并将句子与损坏的对应物(事件或时间标识被替换)区分开来。通过进一步联合这些目标对 PTLM 进行预训练,加强了对事件和时间信息的关注,从而增强了事件时序推理的能力。
  • Utilizing Relative Event Time to Enhance Event-Event Temporal Relation Extraction
    提出了一个用于事件-事件时间关系分类的联合模型和一个辅助任务(相对事件时间预测),它将事件时间预测为实数,最后采用 Stack-Propagation 框架将预测的相对事件时间纳入时间关系分类并保持可微性。

Event Semantic Relations

  • ESTER: A Machine Reading Comprehension Dataset for Reasoning about Event Semantic Relations
    提出一个用于事件语义关系推理的综合机器阅读理解 (MRC) 数据集。该数据集利用自然语言查询来推理五种最常见的事件语义关系(抽取式问答),提供超过6000个问题,10100个事件关系对。

Script Event Prediction

  • Integrating Deep Event-Level and Script-Level Information for Script Event Prediction
    有两种信息有助于完成脚本事件预测,即事件级信息和脚本级信息。提出了一种基于 Transformer 的模型,称为 MCPredictor,集成了深度的事件级和脚本级信息,用于脚本事件预测。在事件层面,MCPredictor 利用文本中丰富的信息来获得更全面的事件语义表示。在脚本级别,它考虑了对应于后续事件的不同参与者的多个事件序列。(脚本事件预测:给定历史事件和候选事件集,选择一个最可能的后续事件;事件由一个动词、三个参与者(主体、客体、间接客体)和该事件出现的句子组成)。
  • Incorporating Circumstances into Narrative Event Prediction
    为了发现事件演变,叙事事件预测对于模拟复杂的现实世界事件至关重要。 现有的研究侧重于挖掘事件间的关系,而忽略了事件是如何发生的,本篇论文称为环境。 为了将环境纳入叙事事件预测,提出了 CircEvent,采用多头注意力来检索局部和全局级别的环境,还引入了注意力权重的正则化,以利用事件和局部环境之间的一致性。

Timeline summarization

  • Timeline Summarization based on Event Graph Compression via Time-Aware Optimal Transport
    时间轴摘要从新闻集中识别重大事件,并按照时间顺序描述它们,标记关键日期(评价指标是时间的F1值和摘要的Rouge值)。以前的方法通常在确定事件的关键日期后为每个日期单独生成摘要。这些方法忽略了事件的内部结构(论元)和外部结构(事件-事件连接)。本篇论文将新闻文章表示为事件图,因此摘要任务变成将整个图压缩到其显着子图。通过共享论元和时间顺序连接的事件描绘了时间轴的骨架,包含在全局事件图中语义相关、结构显着和时间连贯的事件。然后引入时间感知的最佳传输距离,以无监督的方式学习压缩模型。

Event factuality

  • Uncertain Local-to-Global Networks for Document-Level Event Factuality Identification 讲解地址 提出一个Uncertain Local-to-Global Network (ULGN)模型,通过利用局部的不确定信息(高斯分布)和全局结构,完成文档级别的事件真实性识别,模型结果如下:
  • nlp attention 采样 nlp事件抽取_数据集_15


Event Chain Extraction

  • Salience-Aware Event Chain Modeling for Narrative Understanding
    介绍了一种通过过滤掉非显著事件和支持性句子从自然语言文本中提取主要事件链的方法,使用事件链预训练语言模型(故事补全),提供了两种任务的性能:叙事预测和基于事件的时序问答。

Location Identification

  • Multi-task Learning to Enable Location Mention Identification in the Early Hours of a Crisis Event
    研究了一种多任务学习方法,该方法可以同时利用危机领域中几个相关任务的可用注释数据,以提高带有有限注释数据的主要任务的性能。 具体指使用多任务学习来提高识别危机推文中位置提及任务(token分类)的性能。

Sentiment Analysis

  • Implicit Sentiment Analysis with Event-centered Text Representation
    隐式情感分析是在检测没有情感词的句子的情感,本篇论文专注以事件为中心的隐式情感分析,利用句子中包含的情感感知事件来推断其情感极性。隐式情感分析中的大多数现有方法只是将文本中的名词短语或实体视为事件或使用复杂模型间接建模事件。由于事件经常触发句子中的情绪,认为这项任务将受益于事件的显式建模和事件表示学习。为此将事件表示为其事件类型和事件三元组<subject, predicate, object> 的组合(没有事件信息的数据集使用语义角色标注得到事件)。基于这种事件表示,提出了一种具有基于分层张量的组合机制的新模型来检测文本中的情绪。同时提出了一个用于以事件为中心的隐式情感分析的数据集,其中每个句子都用上述事件表示进行标记

Knowledge graph

  • EventKE: Event-Enhanced Knowledge Graph Embedding
    大多数传统知识图谱(KG)中的关系只反映静态和事实的联系,而不能代表实体的动态活动和状态变化。本篇论文强调了在KG表示学习中结合事件的重要性,并提出了一种事件增强的 KG 嵌入模型 EventKE。给定原始KG,首先通过构建异构网络来合并事件节点,其中实体节点和事件节点分布在通过事件l论元互连的网络两侧。然后,使用来自原始 KG 的实体-实体关系和事件-事件时间连接分别到内部连接实体和事件节点。设计了一种新颖有效的基于注意力的消息传递方法,该方法对实体-实体、事件-实体和事件事件关系进行,以将事件信息融合到 KG 嵌入中(使用最后一层的输出,对基于真实知识三元组的评分函数进行端到端的训练)。实验结果表明,事件可以极大地提高 KG 嵌入在多个下游任务中的质量。

Sentence Fusion

  • Event Graph based Sentence Fusion
    句子融合是一种条件生成任务,它将几个相关的句子合并成一个连贯的句子,可以看作是一个总结句子。本篇论文探索了文本摘要背景下有效的句子融合方法。从输入句子构建一个事件图,以结构化的方式有效地捕获和组织相关事件,并使用构建的事件图来指导句子融合。除了利用对句子和图节点内容的注意力,还开发了一种图流注意力机制,通过图结构来控制融合过程。