信息组织中的自然语言应用1. 自由标引2. 自动主题标引3. 自然语言检索系统与自然语言检索3.1 自然语言检索系统3.2 全文检索3.3 自然语言检索系统的优点及不足4. 后控制检索4.1 后控词表信息组织知识点全系列索引 1. 自由标引  自由标引即人工关键词标引,是由标引人员在对文献内容进行分析之后,按一定的规则,将文献原文所用的,能描述文献内容主题的那些具有关键性意义的词抽出,不加规范或
作者在学习自然语言处理过程中,经常会涉及到对语句进行分词、命名实体识别、训练词向量模型。可是因为语料库比较旧且有限,使用的模型可能存在缺陷等,往往使得得到的结果不是很好。在师兄的介绍下,接触到百度云会提供一些自然语言处理的接口,辅助你完成一些基本的任务。本文就以百度云提供的词法分析接口为例,介绍一下百度云端口是如何调用的。该端口提供分词、词性标注、命名实体识别三大功能,支撑自然语言的准确理解。页面
自然语言处理    自然语言处理,Natural Language Processing,NLP。     是计算机科学领域与人工智能领域中的一个重要方向。     它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。     自然语言处理是一门融语言学、计算机科学、数学于一体的科学。  &nb
1. nlp基础(nlp-fundamental)1.1 分词 tokenization(标记化)将文本切分成以独立的词(token) 为单位的序列,meanwhile,对切分得到的词汇进行词性标注POS Tag(part of speech tagging)。1.2 依存句法分析(dependency parser)分析句子中词汇与词汇之间的相互依存关系,得到句子的句法结构。1.3 命名实体识别
1.自然语言概念自然语言,即我们人类日常所使用的语言,是人类交际的重要方式,也是人类区别于其他动物的本质特征。 我们只能使用自然语言与人进行交流,而无法与计算机进行交流。自然语言处理自然语言处理(NLP Natural Language Processing),是人工智能(AI Artificial Intelligence)的一部分,实现人与计算机之间的有效通信。 自然语言处理属于计算
命名实体识别命名实体识别(Named Entity Recognition,NER),指识别文本中具有特定意义的实体,包括人名、地名、机构名、专有名词等。
原创 2022-07-13 18:33:43
1281阅读
在我们处理爬虫的时候,有许多文本信息,如电影简介、新闻报道以及评论等,而关键词提取是指从大量文本中提出最核心、最主要的关键词,而实现关键词提取算法的算法有两种:1. TextRank: 基于词与词直接的上下文关系构建共现网络,将处于网络核心位置的词作为关键词、2. TF-IDF:选出一般不常用但是在指定环境文本中频繁出现的词作为关键词。信息的抽取是从非结构化文本中抽取出有意义或者感兴趣的字段。例如
随着AI科技的发展,AI机器人在我们生活中的各个方面都有一定的涉及,就像医疗咨询,一些医疗机构和应用程序会使用聊天AI机器人来帮助患者解决问题和提供咨询服务,当患者需要咨询医生或寻求医疗建议时,聊天AI机器人可以为他们提供实时的咨询服务,回答他们的问题并提供相关的建议和指导,这可以减少患者等待医生的时间,并且可以提供更加方便和及时的医疗服务。除了医疗,还有教育、客服等等都可以利用这一类的软件来帮助
自然语言处理基础自然语言概念自然语言,即我们人类日常所使用的语言,是人类交际的重要方式,也是人类区别于其他动物的本质特征。 我们只能使用自然语言与人进行交流,而无法与计算机进行交流。自然语言处理自然语言处理(NLP Natural Language Processing),是人工智能(AI Artificial Intelligence)的一部分,实现人与计算机之间的有效通信。 自然语言处理属于计
# 如何将自然语言转换为 Elasticsearch 搜索查询 在当今的技术世界中,自然语言处理(NLP)与搜索引擎技术的结合显得尤为重要。将自然语言转换为能够被 Elasticsearch 理解的搜索查询是提升用户体验的关键一步。本文将带你走过整个流程,学习如何实现这一过程。 ## 流程概述 在开始之前,我们先来梳理一下整体流程。下面是一张流程图以及具体步骤的表格: ### 流程图 `
原创 10月前
225阅读
大家好,我是小发猫。今天又要跟大家讲故事了。  18日结束时,BERT( 《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》)刷新了所有主要NLP公共号码和新闻媒体,创下了11项自然语言处理记录的新纪录,也被称为2019年最强的自然语言处理模式。  作者很早就把论文读完了,很长时间没有
10.1自然语言理解查询数据库如果有人提出一个问题:Which country is Athens in?得到的回答应该是:Greece.这个数据可以通过数据库语言得到答案: SELECT Country FROM city_table WHERE City= 'athens' 这里有一个文法,可以把句子转换成SQL语句: >>>nltk.data.show_cfg('gr
转载 2024-06-14 23:16:10
105阅读
HMM模型介绍由隐状态序列,生成可观测状态的过程。 两个基本假设:第t个隐状态只和前一时刻的t-1隐状态相关,与其他时刻的隐状态无关。在任意时刻t的观测值只依赖于当前时刻的隐状态值,和其他时刻的隐状态无关。HMM模型参数转移概率:t时刻的隐状态qi转移到t+1时刻的隐状态qj的概率。发射概率:t时刻由隐状态qj生成观测状态vk的结果。初始隐状态概率:自然语言序列中第一个字o1的实体标记是qi的概率
文章目录5.1 概率和语言模型5.1.1 概率视角下的word2vec5.1.2 语言模型5.1.3 将CBOW模型用作语言模型的效果怎么样?5.2 RNN5.2.1 循环神经网络5.2.2 展开循环5.2.3 Backpropagation Through Time5.2.4 Truncated BPTT5.2.5 Truncated BPTT的mini-batch学习5.3 RNN的实现5.
对于一些自然语言处理任务,比如聊天机器人,机器翻译,自动文摘等,传统的方法都是从候选集中选出答案,这对素材的完善程度要求很高,随着最近几年深度学习的兴起,国外学者将深度学习技术应用与自然语言的生成和自然语言的理解的方面的研究,并取得了一些突破性的成果,比如,Sequence-to-sequence (seq2seq) 模型,它是目前自然语言处理技术中非常重要而且非常流行的一个模型,该技术突破了传统
BERT(Bidirectional Encoder Representation from Transformers)是由Devlin等人在2018年提出的基于深层Transformer的预训练语言模型。BERT不仅充分利用了大规模无标注文本来挖掘其中丰富的语义信息,同时还进一步加深了自然语言处理模型的深度。这一节将着重介绍BERT的建模方法,其中包括两个基本的预训练任务以及两个进阶预训练任务。
 如果你刚接触自然语言处理并对她感兴趣,最好读几本这方面的书籍,除了能让你知道自然语言处理各个领域是干什么的外,还能培养一下NLP的感觉。以下四本书是我读研期间阅读和接触过的,如果您还有好书推荐,欢迎补充。 1、 《自然语言处理综论》(Speech and Language Processing: An Introduction to Natural Language Processin
特点展示如何使用基于 Python 的深度学习库 PyTorch 应用这些方法演示如何使用 PyTorch 构建应用程序探索计算图和监督学习范式掌握 PyTorch 优化张量操作库的基础知识概述传统的 NLP 概念和方法学习构建神经网络所涉及的基本思想使用嵌入来表示单词、句子、文档和其他特征探索序列预测并生成序列到序列模型学习构建自然语言处理生产系统的设计模式内容介绍 监督学习范式观察和目标
中文语言的机器处理直观上,一个自然语言处理系统最少三个模块:语言的解析、语义的理解及语言的生成。计算机处理自然语言最早应用在机器翻译上,此后在信息检索、信息抽取、数据挖掘、舆情分析、文本摘要、自动问答系统等方面都获得了很广泛的应用。虽然已经产生了许多专业技术作用域语言理解的不同层面和不同任务,例如,这些技术包括完全句法分析、浅层句法分析、信息抽取、词义消歧、潜在语义分析、文本蕴含和指代消解,但是还
自然语言处理之Attention机制  一说Attention,一些人就说seq2seq,self-attention,transformer,把attention比作nlp方向的核武器。但是实际上attention更早出现于CV领域,之后2016年在Relation Extraction(至少有这个)方向上有着较早的应用。直到2017年才被大规模应用于Seq2Seq model。因此,atten
  • 1
  • 2
  • 3
  • 4
  • 5