如何看待NLP领域的内卷:我不配找工作?_大数据

第一章:预训练模型基础

  • | 预训练模型基础、语言模型回顾
  • | N-gram、Neural语言模型回顾
  • | 预训练方法的发展历程
  • | 预训练和transfer learning
  • | Pre-BERT时代的transfer learning
  • | word2vec,transfer learning in NER
  • | Post-BERT时代的transfer learning
  • | Pre-train fine-tune范式

第二章:ELmo与BERT

  • | Elmo、Transformer、BERT
  • | 更强的BERT:RoBERTa
  • | 基于Elmo和BERT的NLP下游任务
  • | Huggingface Transformers库介绍 
  • | 构建基于BERT的情感分类器

 第三章: GPT系列模型

  • | GPT、GPT2、GPT3 
  • | 基于GPT的fine-tuning
  • | 基于GPT的Zero-shot learning
  • | 基于GPT模型的文本生成实战
  • | Top-k + Top-p 采样
  • | 基于给定Prompt生成续写文本

第四章: Transformer-XL与XLNet

  • | 处理长文本 
  • | Transformer-XL
  • | 相对位置编码
  • | Permutation Language Model
  • | Two-stream attention
  • | XLNet
  • | 更进阶的预训练任务:MPNet

第五章:其他前沿的预训练模型

  • | 考虑知识的预训练模型:ERINE
  • | 对话预训练模型:PLATO2, DialoGPT
  • | SpanBERT
  • | MASS,UniLM
  • | BART,T5
  • | 实现基于T5的文本分类模型

第六章: 低计算量下模型微调和对比学习

  • | 低计算量情况下的预训练模型微调
  • | Adapter-based fine-tuning,
  • | Prompt-search,P-tuning 
  • | 基于对比学习的预训练
  • | 对比学习目标:Triplet Loss,InfoNCE Loss
  • | 对比学习在NLP中的前沿应用:SimCSE

第七章:多模态预训练和挑战

  • | 多模态预训练模型
  • | 多模态匹配模型:CLIP,文澜
  • | VQ-VAE
  • | 多模态生成模型:DALLE,CogView
  • | 预训练模型面临的挑战及其前沿进展
  • | 模型并行带来的挑战
  • | 对于Transformer的改进:Reformer

如何看待NLP领域的内卷:我不配找工作?_编程语言_02

第一章:对话系统综述

  • | 对话系统发展历程
  • | 对话系统的主要应用场景
  • | 常见的对话系统类别以及采用的技术
  • | 对话系统前沿的技术介绍
  • | 基础:语言模型
  • | 基础:基于神经网络的语言模型

第二章:对话系统综述

  • | 任务型对话系统的总体架构
  • | 案例:订票系统的搭建
  • | 自然语言理解模块简介
  • | 对话管理模块技术
  • | 对话生成模型技术
  • | 基于神经网络的文本分类和序列标注

第三章:自然语言处理理解模块

  • | 自然语言理解模块面临的挑战
  • | NLU模型中意图和槽位的联合识别
  • | 考虑长上下文的NLU
  • | NLU中的OOD检测
  • | NLU模型的可扩展性和少样本学习
  • | 少样本学习方法介绍
  • | 孪生网络、匹配网络、原型网络

第四章:对话管理和对话生成

  • | 对话状态追踪
  • | 对话策略详解
  • | POMDP技术
  • | 对话管理的最新研究进展
  • | 基于RL的对话管理
  • | 对话生成技术
  • | 端到端的对话系统
  • | 基于预训练模型的DST

第五章:闲聊对话系统

  • | 闲聊对话系统基础技术
  • | 基于检索的闲聊对话系统
  • | 基于生成的闲聊对话系统
  • | 融合检索和生成的闲聊对话系统
  • | Protoype rewriting, Retrieval augmented generation
  • | 闲聊对话系统的主要应用场景
  • | 闲聊对话系统技术所面临的主要挑战
  • | FAQ系统实战,实现一个自己的FAQ系统
  • | 基于RNN/Transformer/BERT的文本匹配模型

第六章:对话系统进阶

  • | 情感/共情对话系统
  • | 生成带情绪的回复
  • | 个性化对话生成
  • | 生成符合特定个性人设的回复
  • | 风格化对话生成
  • | 对话回复的多样性
  • | Label Smoothing, Adaptive label smoothing
  • | Top-K Sampling, Nuclear Sampling
  • | Non-autoregressive 算法在生成模型中的应用
  • | 基于Transformer的对话生成模型
  • | TransferTransfo

第七章:开源对话系统架构RASA详解

  • | RASA的主要架构
  • | 基于RASA搭建自己的对话系统
  • | 多模态对话、VQA
  • | 考虑图像模态的对话回复检索和生成
  • | 基于预训练模型的对话系统
  • | 基于GPT模型的对话模型
  • | Meena,PLA

如何看待NLP领域的内卷:我不配找工作?_java_03

第一章:知识图谱与图数据模型

  • | 知识图谱:搜索引擎,数据整合,AI
  • | 实体抽取、关系抽取、词向量
  • | graph embedding
  • | 图数据模型:RDF, Cyper
  • | 结构化数据的关系抽取
  • | 介绍关系抽取的基本方法
  • | 介绍结构化数据的信息过滤

第二章:知识图谱的设计

  • | RDF和Property graph的设计
  • | 创建KG:数据处理、文本和图像
  • | 推断用到的基本方法
  • | Path detection
  • | Centrality and community Detection
  • | 图结构嵌入方法
  • | 重要性的基本方法:node,edge

第三章:关系抽取和预测

  • | Hand-built patterns
  • | Bootstrapping methods
  • | Supervised methods
  • | Distant supervision
  • | Unsupervised methods
  • | 实体识别的基本方法

第四章:低资源信息抽取和推断

  • | Low-resource NER 
  • | Low-resource structured models
  • | Learning multi-lingual Embeddings
  • | Deepath 
  • | DIVA
  • | Generic Statistical Relational Entity Resolution in Knowledge Graphs 

第五章:结构化预测模型

  • | Sequence labeling
  • | 结构化数据类别:Dependency,constituency
  • | Stack LSTM
  • | Stack RNNS
  • | Tree-structure LSTM

第六章:图挖掘的热门应用

  • | 基本图概念
  • | Link Prediction
  • | Recommendation system
  • | Anomaly detection
  • | Gated Graph Sequence Neural Networks

如何看待NLP领域的内卷:我不配找工作?_机器学习_04

第一章:Seq2Seq模型与机器翻译

  • | Seq2seq 模型与机器翻译任务
  • | 机器翻译中未登录词UNK与subword
  • | 文本生成coverage
  • | length normalization
  • | 低资源语言生成
  • | 多任务学习
  • | Tearch Force Model

第二章:文本摘要生成(1)

  • | 摘要生成技术类别
  • | 生成式摘要生成技术
  • | 抽取式摘要生成技术
  • | 基于CNN的文本生成
  • | 基于RNN的文本生成

第三章:文本摘要生成(2)

  • | Pointer Network 及其应用
  • | CopyNet 于工业界的落地
  • | Length Normalization 
  • | Coverage Normalization
  • | Text summarization 前沿研究

第四章:Creative Writing

  • | 可控性文本生成
  • | Story Telling 与预先训练GPT
  • | 诗词,歌词,藏头诗等文本生成
  • | 创作性文本生成技巧

第五章:多模态文本生成

  • | ResNet 
  • | Inception 等预训练图片特征抽取模型
  • | Image Caption 及其应用
  • | Table2text
  • | 图神经网络与文本生成

第六章:对抗式文本生成与NL2sql

  • | 对抗生成网络 GAN模型
  • | 强化学习基础
  • | 基于 Policy Gradient 的强化学习
  • | SeqGAN
  • | NL2sql :自然语言转SQL


学员可以选择每个模块完成我们提供的固定项目(以个人为单位),或者以小组为单位完成一个开放式项目(capstone),当然你也可以提出你自己的项目。从项目的立项、中期验收到最终答辩,在这个过程中我们的导师团队会给你建议、并辅助你完成课题, 该课题最终很有可能成为你的创业项目或科研论文!

如何看待NLP领域的内卷:我不配找工作?_java_05

如何看待NLP领域的内卷:我不配找工作?_编程语言_06

如何看待NLP领域的内卷:我不配找工作?_java_07

如何看待NLP领域的内卷:我不配找工作?_大数据_08


区别于劣质的PPT讲解,导师全程现场推导,让你在学习中有清晰的思路,深刻的理解算法模型背后推导的每个细节。更重要的是可以清晰地看到各种模型之间的关系!帮助你打通六脉!

如何看待NLP领域的内卷:我不配找工作?_大数据_09

▲源自:LDA模型讲解

如何看待NLP领域的内卷:我不配找工作?_机器学习_10

▲源自:Convex Optimization 讲解

如何看待NLP领域的内卷:我不配找工作?_大数据_11

▲源自:Convergence Analysis 讲解

04 科学的课程安排

采用直播的授课方式,每周3-4次直播教学,包含核心理论课、实战课、复习巩固课以及论文讲解课。教学模式上也参考了美国顶级院校的教学体系。以下为其中一周的课程安排,供参考。 

如何看待NLP领域的内卷:我不配找工作?_机器学习_12

02 项目讲解&实战帮助

训练营最终的目的是帮助学员完成项目,理解项目中包含核心知识技能,训练营中会花大量的时间帮助学员理解项目以及所涉及到的实战讲解。

如何看待NLP领域的内卷:我不配找工作?_人工智能_13

▲节选往期部分课程安排

03 专业的论文解读

作为AI工程师,阅读论文能力是必须要的。在课程里,我们每1-2周会安排一篇经典英文文章供学员阅读,之后由老师帮助解读。   

    

如何看待NLP领域的内卷:我不配找工作?_机器学习_14

▲仅供参考

04 代码解读&实战

对于核心的模型如BERT,XLNet都会精心安排代码解读和实战课,帮助学员深入理解其细节并有能力去实现。

如何看待NLP领域的内卷:我不配找工作?_编程语言_15

▲BERT模型代码实战讲解

05 行业案例分享

训练营过程中会邀请合作的专家来分享行业案例以及技术解决方案,如知识图谱的搭建、保险领域的客服系统等。

如何看待NLP领域的内卷:我不配找工作?_编程语言_16

▲专家分享

《Google YouTube 基于深度学习的视频推荐》

嘉宾简介:曾博士

计算机视觉,机器学习领域专家

先后在CVPR,ACMMM,TPAMI,SCI 期刊,EI 会议等发表超过30篇论文