用大语言模型做文本分类 语言模型的任务_词向量


语言理解的四个粒度,字段理解、词的理解、句子的理解、篇章的理解

用大语言模型做文本分类 语言模型的任务_交互式语言_02


词向量,词的粒度

用大语言模型做文本分类 语言模型的任务_词向量_03


token类别还是整个句子的类别

用大语言模型做文本分类 语言模型的任务_语言模型_04


词向量是静止的

用大语言模型做文本分类 语言模型的任务_交互式语言_05


预训练语言模型

用大语言模型做文本分类 语言模型的任务_语言模型_06


底层特征可以复用

用大语言模型做文本分类 语言模型的任务_语言模型_07


NLP技术发展

用大语言模型做文本分类 语言模型的任务_词向量_08


基于双向LSTM ELMO第一个预训练语言模型

用大语言模型做文本分类 语言模型的任务_词向量_09


横向左右双向建模得到上下文信息,纵向得到不同程度的特征信息

用大语言模型做文本分类 语言模型的任务_交互式语言_10


不直接参与模型训练,只是作为特征参与下游任务

用大语言模型做文本分类 语言模型的任务_语言模型_11


解决了一词多义的问题

用大语言模型做文本分类 语言模型的任务_词向量_12


问题

用大语言模型做文本分类 语言模型的任务_用大语言模型做文本分类_13


GPT

用大语言模型做文本分类 语言模型的任务_语言模型_14


更强的文本特征提取能力

用大语言模型做文本分类 语言模型的任务_交互式语言_15


直接参与下游的模型训练

用大语言模型做文本分类 语言模型的任务_词向量_16


针对下游任务的应用简化了模型结构设计

用大语言模型做文本分类 语言模型的任务_语言模型_17


存在缺点

用大语言模型做文本分类 语言模型的任务_交互式语言_18


用大语言模型做文本分类 语言模型的任务_语言模型_19


直接进行交互式语言训练

用大语言模型做文本分类 语言模型的任务_词向量_20


model-based效果更好

用大语言模型做文本分类 语言模型的任务_语言模型_21


BERT模型的缺点

用大语言模型做文本分类 语言模型的任务_用大语言模型做文本分类_22


ernie基于全局实体信息的mask

用大语言模型做文本分类 语言模型的任务_用大语言模型做文本分类_23


用大语言模型做文本分类 语言模型的任务_交互式语言_24


ERNIE直接触发了BERT-wwm和spanBERT的诞生

用大语言模型做文本分类 语言模型的任务_交互式语言_25


ERNIE也不是最完美的,可以在预训练阶段构造多个任务进行充分训练

用大语言模型做文本分类 语言模型的任务_语言模型_26


出现了ERNIE2.0,各个模型交替训练先训练A任务,再训练B任务,在一起训练A+B任务

用大语言模型做文本分类 语言模型的任务_词向量_27

预训练语言模型的发展

用大语言模型做文本分类 语言模型的任务_词向量_28


预训练语言模型的优势

用大语言模型做文本分类 语言模型的任务_语言模型_29


NLP难点和发展过程

用大语言模型做文本分类 语言模型的任务_词向量_30


双塔结构

用大语言模型做文本分类 语言模型的任务_词向量_31


单塔结构