1 NLTK和StandfordNLP简介NLTK:由宾夕法尼亚大学计算机和信息科学使用python语言实现的一种自然语言工具包,其收集的大量公开数据集、模型上提供了全面、易用的接口,涵盖了分词、词性标注(Part-Of-Speech tag, POS-tag)、命名实体识别(Named Entity Recognition, NER)、句法分析(Syntactic Parse)等各项 NLP 领
转载
2024-05-15 14:57:42
27阅读
NLP项目主要流程1.分词(Word Segmentation)1.1 分词依靠词库常用开源分词工具:jieba, SnowNLP, LTP, HanNLP 1.2 分词算法:1.2.1 基于匹配规则的匹配:最大匹配(forward max-matching/background max-matching/双向最大匹配):最大匹配算法 缺点: 1.陷入局部最优 ; 2.未考虑语义,可产生歧义,可在
转载
2023-10-31 18:03:28
40阅读
之前提到,seq2seq的一大缺点是单一的语义向量难以表达长序列的完整语义,而改善这一问题的一个有效方法就是结合注意力机制,在不同的时刻针对输出计算包含不同语义的语义向量: 所谓注意力机制,本质上就是在分析过程中引入权重,在本文,我主要介绍两种注意力计算框架:原始的计算框架和multi-head attention,从原始的框架中又进一步划分为:soft attention(key=value)、
转载
2024-01-25 17:10:44
39阅读
语言模型(LM)的作用是估计不同语句在对话中出现的概率,并且LM适用于许多不同的自然语言处理应用程序(NLP)。 例如,聊天机器人的对话系统。在此文中,我们将首先正式定义LM,然后演示如何使用实际数据计算它们。 所有显示的方法在Kaggle notebook中有完整的代码展示。一、语言模型(LM)的定义概率语言建模的目标是计算单词序列的语句出现的概率: &n
转载
2023-08-14 10:36:44
226阅读
Python 搭建 NLP 模型的详细步骤和代码引言 自然语言处理(NLP)是人工智能中的一个重要领域,涉及如何计算机理解、解释和生成人类语言。随着深度学习的进步,NLP 的应用变得越来越广泛,从文本分类到情感分析,再到机器翻译,都展现出强大的能力。技术背景NLP 发展概述早期的 NLP 系统依赖于规则和统计方法,但随着神经网络的发展,尤其是深度学习和上下文嵌入技术的出现,现代 NLP 模型能够自
前言:笔者之前是cv方向,因为工作原因需要学习NLP相关的模型,因此特意梳理一下关于NLP的几个经典模型,由于有基础,这一系列不会关注基础内容或者公式推导,而是更侧重对整体原理的理解。顺便推荐两个很不错的github项目——开箱即用的中文教程以及算法更全但是有些跑不通的英文教程。一. RNN与RCNN的异同无论是RNN模型还是RCNN模型,数据如果不考虑bs维度的话,其实都只有两个维度。一个维度是
转载
2024-07-02 20:15:25
66阅读
在我们使用bert预分类模型微调之后(可以参考我前面写的文章),需要对项目进行支持,那就需要分类模型落地提供服务,这篇文章介绍python调用bert模型,提供服务。 参考:https://github.com/xmxoxo/BERT-train2deploy 在后期部署的时候,需要一个label2id的字典,所以要在训练的时候就保存起来,在convert_single_example这个方法里增
转载
2023-07-08 11:37:13
221阅读
目录语言模型1. 统计语言模型1.1 统计语言模型的基本公式(条件概率)1.2 马尔科夫假设:有限前序字符依赖约束条件的统计语言模型(n-gram)1.3 独立同分布假设:所有字符间都独立同分布的统计语言模型1.4 局部与整体假设:TF-IDF表示1.5 LSA :一种基于SVD矩阵奇异值分解的语义分析语言模型2. 神经网络语言模型(NNLM)2.1 分布式表征(distributed repr
转载
2023-08-17 09:07:39
232阅读
文章目录基础资料准备从0到1了解模型的优缺点BERT这个模型与其它两个不同的是:BERT模型具有以下两个特点:模型的输入参考资料: 在说内容之前先把,bert基本资料准备一下 从0到1了解模型的优缺点从现在的大趋势来看,使用某种模型预训练一个语言模型看起来是一种比较靠谱的方法。从之前AI2的 ELMo,到 OpenAI的fine-tune transformer,再到Google的这个BERT
转载
2023-10-23 19:31:24
52阅读
参考 https://www.zhihu.com/question/40309730 NLP通常包括两个关键问题: 1.选择什么样的语言模型? 2.选择什么样的分类算法? 第二个问题是机器学习领域的标准问题,各种针对不同数据类型、数据分布的算法和技巧,这里不再赘述。而在NLP当中,语言模型更加重要一些。 不同语言模型的区别,也就是对文本提取特征的不同。常用的模型有
转载
2023-08-31 10:44:43
79阅读
陆:句法分析语言学的不同分支对应了不同的nlp基础技术,词法学对应于自动分词、词性标注等,而句法学对应的是句法分析。句法(Syntax): 研究语言的句子结构,针对语言学两个基本关系中的组合关系。一、句法分析概述概念句法分析:判断单词串是否属于某个语言,如果是,则给出其(树)结构。句法分析包含两个子问题,一是语言体系的形式化描述,二是语言结构的分析算法。
一般而言,语言结构分析算法的任务着重
转载
2023-08-31 18:17:08
209阅读
目录引言1 FastText1.1 相关资料1.2 介绍2 TextCNN2.1 相关资料2.2 介绍3 DPCNN3.1 相关资料3.2 介绍4 TextRCNN4.1 相关资料4.2 介绍5 TextBiLSTM+Attention5.1 相关资料5.2 介绍6 HAN6.1 相关资料6.2 介绍7 Bert7.1 相关资料7.2 介绍8 封装的源码汇总 引言更多模型介绍基于深度学习的文本分
转载
2023-08-31 18:16:37
95阅读
BERT终于来了!今天,谷歌研究团队终于在GitHub上发布了万众期待的BERT。代码放出不到一天,就已经在GitHub上获得1500多星。项目地址:https://github.com/google-research/bert#fine-tuning-with-bert就在半个月前,谷歌才发布这个NLP预训练模型的论文(https://arxiv.org/abs/1810.04805)。BERT
转载
2024-07-31 11:39:29
38阅读
随着 Google 推出的 BERT 模型在多种 NLP 任务上取得 SOTA,NLP 技术真正进入了大规模应用阶段,由此,我们展开了对 BERT 的探索。 训练模型 训练数据训练其他模型时我们已经标注了大量的训练数据,主要把相似句对分为三类来标注:不相似(0)、相关(0.5)、相似(1)所以,训练 BERT 模型时就可以“拿来主义”了。模型修改我们的主要应用点是相
转载
2024-02-02 13:36:33
57阅读
二月出了 ELMo,六月出了 OpenAI Transformer,十月又出了BERT,下半年开始的这场预训练语言模型的火,越燃越大啊,希望能烧出 CV 那样的 baseline。 不得不说,Jacob 的这篇 BERT 真是大手笔,massive data + massive model + massive computation,踏平了 N 多 task,称得上 NLP 新范式了。当然,常人基
转载
2024-06-08 13:30:00
59阅读
Input EmbeddingBERT Bert采用两阶段模型,首先是语言模型预训练,其次是使用 Fine-Tuning 模式解决下游任务。BERT 预训练模型分为以下三个步骤:Embedding、Masked LM、Next Sentence Prediction。Embedding 由三种 Embedding 求和而成: Token Embeddings 是词向量,第一个单词是 CLS 标志,
转载
2024-02-13 10:24:32
45阅读
第二章:迁移学习2.1 迁移学习理论学习目标:了解迁移学习中的有关概念.掌握迁移学习的两种迁移方式.迁移学习中的有关概念:
预训练模型微调微调预训练模型(Pretrained model):
一般情况下预训练模型都是大型模型,具备复杂的网络结构,众多的参数量,以及在足够大的数据集下进行训练而产生的模型. 在NLP领域,预训练模型往往是语言模型,因为语言模型的训练是无监督的,可以获得
转载
2024-08-01 07:48:44
57阅读
NLP项目实践——中文序列标注Flat Lattice代码解读与使用1. 原文与项目地址1.1 原文1.2 项目2. 运行环境3. 项目结构4. 参数介绍4.1 数据加载参数:4.2 bert相关参数(V1):4.3 模型参数:4.4 训练参数5. 模型结构6. 模型训练7. 模型保存、加载与预测7.1 模型保存7.2 模型加载7.3 生成预测8. 应用在自己的数据集 好久没有更新了,有好几个N
转载
2024-02-27 12:47:36
26阅读
文章目录发展历程迁移学习预训练、精调范式(Pre-train,Fine-tune) 发展历程预训练语言模型: 是采用迁移学习的方法,通过自监督学习,从大规模数据中获得与具体任务无关的预训练模型,然后用训练好的预训练模型提高下游任务的性能的一种数据增强法迁移学习分类: 1、归纳迁移学习 在源领域和任务上学习出的一般的知识,然后将其迁移到目标领域和任务上迁移方式: 1、基于特征的方式 将源任务预训练
转载
2023-07-31 21:12:59
144阅读
文章目录baseHMMCRFTFIDFPageRankTextRankLDAword2vecother NLP相关算法,HMM、CRF、TFIDF、TextRank、pagerank、LDA、word2vec、Doc2Vec、TextCNN、Bi-LSTM+CRF、Lattice-LSTM、transformer、BERT等base分词、词性标注、实体识别常见的分词算法有:基于字符串匹配的分词方
转载
2023-11-20 09:07:05
189阅读