NLP-Prompt综述(2)_Powered by 金山文档


总结:

(1)传统的监督学习是输入文本,输出标签,标签可枚举,比如++、--、+、-和~等

(2)对于翻译模型,属于文本-->文本,所以不能固化标签,是一种新的模式,成为seq2seq

(3)基于prompt的模式,能够改进一点,有监督必须存在大量标签数据,而这很难,标注工作繁杂,prompt避免了这个问题,它是直接计算输入文本的概率,最后根据概率和原来监督方式输出的标签建立映射,这样就解决了非监督和具备输出结果的问题


NLP-Prompt综述(2)_自然语言处理_02


总结:

(1)这个表前面注释写的很清楚,不需要过度解释,其实表达的意思就是通过设置模版,可以完成非监督训练,并且最后通过建立映射完成所有的训练


NLP-Prompt综述(2)_深度学习_03


总结:

(1)通过设置模版可以实现分类、翻译均在一个大模型里面,下游任务只需要很少数据甚至不需要数据去训练,直接输入x到模型,x具体任务定了,输出结果就拿到了


NLP-Prompt综述(2)_模版_04


总结:

(1)本段是映射关系建立的方式,如上的几个方法


NLP-Prompt综述(2)_深度学习_05


总结:

(1)本表格内容十分丰富,可以看到task列和input、template,同样是TextCLS的文本分类,可以通过设置不同的template,这一个文本分类就完成了三个任务:情感分类、主题提取和意图识别