我需要在当前模块中实现一些NLP。 我正在寻找一些可以帮助我的好图书馆。 我遇到了'LingPipe',但无法完全遵循如何使用它。基本上,我们需要实现一个功能,其中应用程序可以解释用简体中文输入的客户指令(交付说明)。 例如:将于明天中午12点起床请在6月10日之后发货请不要在星期三之前发送在订单中再添加10个XYZ单位请参阅stackoverflow.com/questions/22904025
转载
2023-12-12 21:53:09
20阅读
目录粤语 之 粤语学习的一些学习网站和工具整理一、简单介绍二、学习路线1、多听一些激发自己粤语兴趣的电影,电视,音乐,粤语语句等,保持好自己对粤语的持续饱满兴趣2、粤语发音,声母,韵母,九声六调3、基本短句持续练习4、长篇长句升级练习5、以上学习中,可以利用粤语歌、粤语视频、粤语笑话,丰富自己学习内容6、在循序渐进,不断加深巩固7、独乐乐,不如众乐乐三、一些学习用到的网站1、哔哩哔哩2
转载
2024-09-12 14:50:24
14阅读
# 学习与实现中文NLP的Java项目指南
自然语言处理(NLP)是计算机科学和人工智能领域的一个重要分支,它使计算机能够处理和理解人类语言。本文将带你一步步实现一个简单的中文NLP项目,通过Java编程。在这个过程中,我们将使用一个简单的文本分析任务作为示例。
## 项目实施流程
下面是整个项目的实施步骤摘要:
| 步骤 | 描述 | 预计耗时
编辑: ShuYini 校稿: ShuYini 时间: 2020-1-3引言 如何判定训练出来的模型好与坏呢?关键是要有一个比较好的模型评估方法,那么今天作者就给大家汇总一下自然语言生成(NLG)中经常见到的无监督自评估方法(BLEU、METEOR、ROUGE、CIDEr)(含评估代码)。BLEU评估法(机器翻译) Bleu 全称为 Bilingual Evaluation Unde
大家好,JioNLP(https://github.com/dongrixinyu/JioNLP)目前已经在Github上有了1600星的点赞,下载安装量大概有几万了。被使用最多的功能,也是被问得最多的,主要是关键短语抽取、时间语义解析、地址按省市县三级解析等等。其它功能较少使用到。然而,作为开发者,我自己在工作中经常用到的一些功能函数,甚少被关注或者提问,因此,本文主要是向大家介绍几个我平时常用
转载
2024-08-29 13:20:24
169阅读
代码github 几个简单的NLP数据增强示例:random delete wordrandom delete charrandom delete symbolrandom swag wordrandom back translate by google (需要能访问谷歌)random synonym substitutionrandom back translate by youdao(免费,有
转载
2023-05-19 09:51:24
107阅读
一、 实验目的深入理解汉语分词的基本概念。掌握并实现前向最大匹配算法、后向最大匹配算法和最少分词法。掌握分词的评价指标,学会计算正确率、召回率和F-测度值。二、 实验内容利用人民日报语料库或自己构建的语料库(30词以上)作为词典,任选五个句子,并基于正向最大匹配算法和最短路径法分别对这五个句子进行分词,并分别计算分词结果的正确率,召回率和F-测度值。输出句子,基于两种算法的分词结果和其对应的评价指
转载
2023-12-14 00:11:55
135阅读
# 用Java实现Stanford NLP中文处理的指南
在这篇文章中,我们将一起学习如何使用Java与Stanford NLP库进行中文自然语言处理。对初学者来说,这个过程可能有一些复杂,因此我将通过表格和详细的代码注释来逐步引导你。
## 一、实施流程
下面是我们实现Java Stanford NLP中文处理的基本流程:
| 步骤 | 描述
step 1 用 IDEA 构建一个 maven 项目,引入 相关依赖包,当前依赖包最新版本为 3.9.2<dependency>
<groupId>edu.stanford.nlp</groupId>
<artifactId>stanford-corenlp</artifactId>
一、常用到的第三发工具NLP常用基本工具
• jieba:
• https://github.com/fxsjy/jieba
• HanLP:
• http://hanlp.com/
• https://github.com/hankcs/pyhanlp
• snowNLP:
• http://gi
转载
2023-09-02 16:08:41
146阅读
源码请到:自然语言处理练习: 学习自然语言处理时候写的一些代码 (gitee.com)一、字符串处理这里是一些自然语言中常用的python字符串操作,python内置无需安装1.1 strip函数:去掉首尾特定字符示例:text = " abcdef125s wr2258abcd "
print("base", text)
print("strip:", text.strip(
开源NLP自然语言处理工具集锦现状首先看看目前常用的分词系统:NoNameFeature1BosonNLPhttp://bosonnlp.com/2IKAnalyzer3NLPIRhttp://ictclas.nlpir.org/4SCWShttp://www.xunsearch.com/scws/5结巴分词6盘古分词http://pangusegment.codeplex.com/7庖丁解牛ht
转载
2023-11-10 22:24:53
62阅读
前言在聊NLP领域的语言模型的时候,我们究竟在聊什么?这就涉及nlp语言模型的定义。语言模型发展至今,其实可以简单的分为传统意义上的语言模型和现代的语言模型,传统语言模型主要是指利用统计学计算语料序列的概率分布,对于一个给定长度为m的序列,它可以为整个序列产生一个概率 P(w_1,w_2,…,w_m) 。其实就是想办法找到一个概率分布,它可以表示任意一个句子或序列出现的概率。现代的语言模型,则是指
转载
2023-12-10 07:25:08
84阅读
一、马尔可夫链马尔可夫链是满足马尔可夫性质的随机过程(马尔可夫性质是无记忆性)>>>>这一刻的时刻,受前一时刻的影响,不受更往前时刻状态的影响隐马尔可夫链>>>>隐藏状态序列二、隐马尔可夫模型隐马尔可夫模型(Hidden Markov Model)是统计模型,处理的问题具有以下特征:问题基于序列,像时间序列或者状态序列问题中有两类数据,一类序列数据是
转载
2024-06-08 13:41:58
32阅读
探索NLP-China/nlp-lang:一款强大的自然语言处理工具项目简介NLP-China/nlp-lang 是一个开源的自然语言处理(NLP)库,专注于为中文文本提供高效、易用的处理工具。该项目旨在帮助开发者和研究人员更便捷地进行中文信息提取、文本分类、情感分析等各种NLP任务,极大地推动了中文自然语言处理技术的发展。技术分析模块化设计:nlp-lang采用了模块化的架构,使得各个功能组件可
转载
2024-08-06 19:49:40
28阅读
FNLP是由Fudan NLP实验室的邱锡鹏老师开源的一套Java写就的中文NLP工具包,提供诸如分词、词性标注、文本分类、依存句法分析等功能。【开源中文分词工具探析】系列:开源中文分词工具探析(一):ICTCLAS (NLPIR)开源中文分词工具探析(二):Jieba开源中文分词工具探析(三):Ansj开源中文分词工具探析(四):THULAC开源中文分词工具探析(五):FNLP开源中文分词工具探
转载
2023-11-15 22:45:21
85阅读
作者 | Thomas Delteil 翻译 | 孙稚昊2 深度学习的NLP工具 为什么最新的模型结果这么难以复现?为什么去年可以工作的代码和最新发布的深度学习框架不适配?为什么一个很直白的基线这么难以建立?在今天的世界中,这些都是自然语言处理(NLP)的研究员遇到的问题。 我们来看一个假想的博士学生。我们叫它亚历山大,他刚开始机械翻译(NMT)的研究。有一天
转载
2024-03-12 17:25:45
71阅读
摘要:总结一些经典的NLP面试题 ,会陆续更新。 如果有谬误,欢迎批评指正~ :)笔者明天就有一个面试,然而觉得自己还是一个NLP小白,所以今天加急整理一下知识点。Q为面试管 A为面试者 模拟面试word2vecQ: word2vec有两种经典的训练方式 A: skip-gram 和 CBOWQ: 介绍一下这两种训练方式 A: skip-gram:给定中心词预测上下文, (in, out)对形式为
转载
2023-11-19 20:50:15
137阅读
中文词法分析
THULAC:一个高效的中文词法分析工具包
包括中文分词、词性标注功能。已经提供C++、Java、Python版本。
中文文本分类
THUCTC: 一个高效的中文文本分类工具
提供高效的中文文本特征提取、分类训练和测试功能。
THUTag: 关键词抽取与社会标签推荐工具包
GitHub - YeDeming/THUTag:
转载
2024-01-25 06:10:47
55阅读
分词与NLP关系:分词是中文自然语言处理的基础,没有中文分词,我们对语言很难量化,进而很能运用数学的知识去解决问题。对于拉丁语系是不需要分词的。拉丁语系与亚系语言区别拉丁语言系不需要分词,因为他们的词语之间有空格分割,可以根据空格就可以把单词分开。比如英语、法语等。亚系语言中间没有空格,比如中文、韩文及日文等。因此需要 分词。什么是中文分词:中文分词(Chinese Word Segmentati
转载
2023-09-05 16:49:51
112阅读