周末娱乐一下,解锁AINLP公众号聊天机器人无名的语音(识别)聊天技能,不过只有语音识别,没有语音合成,这个目前基于微信公众号本身提供的语音识别接口,目前只能识别中文语音,感兴趣的同学可以先关注AINLP公众号,然后后台语音或者文字对话即可:基于AINLP公众号的聊天机器人功能点,可以基于语音玩一些有趣的事情,例如中英翻译功能:通过AINLP公众号的中文语音识别功能可以瞬间把手机变成一个中到英语音
原创
2021-03-31 19:34:13
451阅读
编者按:AINLP公众号作者,星球嘉宾太子長琴同学之前在AINLP芝麻街分享了这篇论文 Few-Shot Charge Prediction with Discriminative Legal Attributes Note 的阅读笔记,本文为全文分享:Paper: http://nlp.csai.tsinghua.edu.cn/~tcc/publications/coling2018_attri
原创
2021-03-28 22:01:31
1524阅读
今天推荐一个有趣的自然语言处理公众号AINLP,关注后玩得根本停不下来!AINLP的维护者是我爱自然语言处理(52nlp)博主,他之前在腾讯从事NLP相关的研发工作,目前在一家创业公司带...
转载
2021-07-20 11:35:56
1107阅读
今天推荐一个有趣的自然语言处理公众号AINLP,关注后玩得根本停不下来!AINLP的维护者是我爱自然语言处理(52nlp)博主,他之前在腾讯从事NLP相关的研发工作,目前在一家创业公司带...
转载
2021-09-07 15:46:13
1911阅读
今天推荐一个有趣的自然语言处理公众号「AINLP」,关注后
转载
2023-08-01 09:40:06
65阅读
最近玩公众号会话停不下来:玩转腾讯词向量:Game of Words(词语的加减游戏),准备把NLP相关的模块搬到线上,准确的说,搬到AINLP公众号后台对话,所以,趁着劳动节假期,给AINLP公众号后台聊天机器人添加了一项新技能:中文分词线上PK,例如在AINLP公众号后台对话输入:中文分词 我爱自然语言处理,就可以得到五款分词工具的分词结果:现在的开源中文分词工具或者模块已经很丰富了,并且很多
原创
2021-03-31 19:35:58
1368阅读
AINLP公众号作者,也是知识星球“AINLP芝麻街”的嘉宾太子长琴同学发布了一个开源项目:https://github.com/hscspring/NLM:MemoryforKnowledgeGraph,usingNeo4j.知识图谱存储与查询。以下是来自他博客的中文介绍,感兴趣的同学欢迎一起探讨。项目地址:https://github.com/hscspring/NLM博文地址:https:/
原创
2021-03-28 21:51:52
639阅读
作者:太子長琴(NLP算法工程师)AINLP公众号作者,也是知识星球“AINLP芝麻街”的嘉宾太子长琴同学发布了一个开源项目:https://github.com/hscspring/NLM :Memory for Knowledge Graph, using Neo4j. 知识图谱存储与查询。以下是来自他博客的中文介绍,感兴趣的同学欢迎一起探讨。项目地址:https://github.com/h
转载
2024-09-10 10:04:16
89阅读
赠书活动在 AINLP 公众号。这本书相当受欢迎(前两个版本累计销量超过 5 万册),尤其是受学校青睐——在此也说声抱请知悉,...
转载
2023-07-27 16:00:36
89阅读
语句与语法python 模块调用实例目录结构: ainlp pythonLearningday01.pytest.pyday01.py 代码内容如下def printName(a):
print(a)
b="xiaopang"
print(a+b)test.pyimport pythonLearning.day01 as day
a="i like"
x=day.prin
推荐Github上一个NLP相关的项目:msgi/nlp-journey项目地址,阅读原文可以直达,欢迎参与和Star:https://github.com/msgi/nlp-journey这个项目的作者是AINLP交流群里的慢时光同学,该项目收集了NLP相关的一些代码, 包括词向量(Word Embedding)、命名实体识别(NER)、文本分类(Text Classificatin)、文本生成
上午看到FlyAI-AINLP群里李俊毅同学发出的一条信息:最近刚翻译、整理完的陈丹琦博士的论文,https://chendq-thesis-zh.readthedocs.io/en/latest/ ,感兴趣的同学可以来看看。Neural Reading Comprehension and Beyond,里面讲了很多关于神经阅读理解的背景知识,以及作者自己的实验思路。个人觉得适合初入nlp的以及对
原创
2021-03-31 20:38:00
1021阅读
首先介绍之前测试过的8款中文分词工具,这几款工具可以直接在AINLP公众号后台在线测试,严格的说,它们不完全是纯粹的中文分词工具,例如SnowNLP, Thulac, HanLP,LTP,CoreNLP都是很全面的(中文)自然语言处理工具。安装这些模块其实很简单,只要按官方文档的方法安装即可,以下做个简单介绍,主要是在Python3.x & Ubuntu16.04 的环境下测试及安装这些中
转载
2024-01-04 22:46:51
58阅读
上一篇文章《腾讯词向量实战:通过Annoy进行索引和快速查询》结束后,觉得可以通过Annoy做一点有趣的事,把“词类比(Word Analogy)”操作放到线上,作为AINLP公众号聊天机器人的新技能,毕竟这是word2vec,或者词向量中很有意思的一个特性,刚好,Annoy也提供了一个基于vector进行近似最近邻查询的接口:get_nns_by_vector(v, n, search_k=-1
原创
2021-03-31 19:33:09
369阅读
这篇文章事实上整合了之前文章的相关介绍,同时添加一些其他的Python中文分词相关资源,甚至非Python的中文分词工具,仅供参考。首先介绍之前测试过的8款中文分词工具,这几款工具可以直接在AINLP公众号后台在线测试,严格的说,它们不完全是纯粹的中文分词工具,例如SnowNLP, Thulac, HanLP,LTP,CoreNLP都是很全面的(中文)自然语言处理工具。安装这些模块其实很简单,只要
原创
2021-03-31 19:37:43
478阅读
昨天在AINLP公众号上分享了乐雨泉同学的投稿文章:《分词那些事儿》,有同学留言表示"不过瘾",我想了想,其实我爱自然语言处理博客上已经积攒了不少中文分词的文章,除了基于深度学习的分词方法还没有探讨外,“古典”机器学习时代的中文分词方法都有涉及,从基于词典的中文分词(最大匹配法),到基于统计的分词方法(HMM、最大熵模型、条件随机场模型CRF),再到Mecab、NLTK中文分词,都有所涉及。回头看
原创
2021-03-31 19:29:00
516阅读
这篇文章事实上整合了前面两篇文章的相关介绍,同时添加一些其他的Python中文分词相关资源,甚至非Python的中文分词工具,仅供参考。首先介绍之前测试过的8款中文分词工具,这几款工具可以直接在AINLP公众号后台在线测试,严格的说,它们不完全是纯粹的中文分词工具,例如SnowNLP, Thulac, HanLP,LTP,CoreNLP都是很全面的(中文)自然语言处理工具。安装这些模块其实很简单,
转载
2023-09-16 13:54:44
106阅读
跟着博主的脚步,每天进步一点点 这篇文章事实上整合了之前文章的相关介绍,同时添加一些其他的Python中文分词相关资源,甚至非Python的中文分词工具,仅供参考。首先介绍之前测试过的8款中文分词工具,这几款工具可以直接在AINLP公众号后台在线测试,严格的说,它们不完全是纯粹的中文分词工具,例如SnowNLP, Thulac, HanLP,LTP,CoreNLP都是很全面的(中文
转载
2023-10-06 20:16:49
126阅读
在分词方面 我最终选用了JIEBA分词: 我通过AINLP公众号进行了对比 ,对比结果如下: 通过其分词结果可以看出效果比较好的有: jieba, HANLP, BaiduLac 之前笔者尝试过斯坦福nlp 由于其在中文分词的里面分的将词汇分的过于精细,导致其分词效果到达不了我们想要的结果,最终笔者选择了jieba。 ps: HANLP感觉很是很棒的, 大家也可试一下。在这里给大家推荐一个中文分局
来自:AINLP作者:朱帅学校:华中科技大学1. 关于文本匹配文本匹配是NLP的基础任务之一,按照论文中的实验对传统的文本匹配任务进行分类,大致可以分为文本检索(ad-hoc),释义识别(Paraphrase Identification),自然语言推理(NLI)以及问答匹配(QA)。除此之外,像实体消歧等其他任务都可以采用文本匹配的思路来解决。不同的文本匹配任务,虽然实现的目标有所不同,但是从模