热门 最新 精选 话题 上榜
作者: 龚俊民(昵称: 除夕)学校: 新南威尔士大学单位:Vivo AI LAB 算法实习生方向: 自然语言处理和可解释学习前言:虽然我综述过至少4遍预训练语言模型,但每次看都依然可以发现一些新的东西。经典的突破性进展,值得让人深入反复讲。 过去 NLP 领域是一个任务用标注数据训练一个模型,而现在我们可以在大量无标注的语料上预训练出一个在少量有监督数据上
导读这一段时间,笔者一直在研究语音识别后的文本纠错,而就在八月26-30日,CCF的自然语言处理和中文计算会议召开了,笔者也从师兄那里拿到了新鲜出炉的会议论文集,其中重点看的自然是其shared task2:grammatical error correction的overview以及优胜团队的论文。本文总结了优胜团队的论文并给出了一些可能的改进方向。本文涉及四篇文章:官方的overview: O
作者|唐天一机构|中国人民大学高瓴人工智能学院导师|赵鑫教授方向 | 自然语言处理导读ACL-IJCNLP 2021是CCF A类会议,是人工智能领域自然语言处理( Natural Language Processing,NLP)方向最权威的国际会议。计算语言学协会第59届年会暨第11届自然语言处理国际联席会议(The Joint Conference of the 59th Annual Mee
作者:Fareise预训练语言模型是NLP中的核心之一,在pretrain-finetune这一阶段的NLP发展中发挥着举足轻重的作用。预训练语言模型的无监督训练属性,使其非常容易获取海量训练样本,并且训练好的语言模型包含很多语义语法知识,对于下游任务的效果会有非常明显的提升。本文首先介绍预训练语言模型的里程碑方法,然后进一步介绍学术界针对预训练语言模型中的问题提出的各种改进和创新,包括14个经典
作者 刘知远编辑 zenRRan地址 https://github.com/zibuyu/research_tao要成为自然语言处理某个领域合格研究者的基本要求就是,掌握坚实的基础知识和了解全面的学术动态。基础知识,如高等数学、概率论、人工智能、机器学习、语言学等,这一般是在大学本科或研究生期间通过选修相关课程和教材自学来完成;现在大规模在线教育(MOOC)风靡全球,国内外著名高校的课程
作者|都一凡方向 | 多模态学习 凭借着强大的泛化能力,预训练模型在CV和NLP领域的一系列任务上取得巨大成功。尤其是自以Transformer为架构的预训练模型在NLP领域大放异彩之后,多模态领域也尝试引入Transformer融合不同模态之间的交互,从而走上了预训练模型的这条道路。笔者对ICML2021, ACL2021, NIPS2021, EMNLP2021, ACL2022 ARR
对话系统可以说是NLP领域目前已知最扎实的落地场景了,整个流程都脱离不了NLP的核心作用,而且整个流程涉及NLP的大量任务,因此大量的研究都围绕着对话系统来开展,也因此产生了很多很有意义的新方法。而检索式对话作为对话系统最原始的实现方式,又蕴涵着什么有意思的东西,我们来看看。什么是对话系统对话从来就不是一个简单的任务,这是一个涉及理解、生成、交互等多个方向技术的综合实体。理解:需要理解对方输出的内
十三量子位 报道 | 2019年,自然语言处理(NLP)都取得了哪些突破?提到NLP,BERT可以说是家喻户晓。在情感分析、问答、句子相似度等多个 NLP 任务上都取得了优异的成绩。而且,无论是在类似于Kaggle这样的竞赛,或者媒体报道中,也总能看到它的身影。它发表于2018年末,自那之后的一年,NLP和NLU(自然语言理解)领域有了较大的发展。那么,以BERT的发布作为时间节点,本文便梳理了一
本期分享者:甘子发澜舟科技算法实习生 ,郑州大学自然语言处理实验室(ZZUNLP)二年级硕士生。目前正在进行文本纠错方向的研究 E-mail: zfganlp@foxmail.com写在前面自然语言文本中经常会出现一些拼写错误(typo),在中文文本里即所谓的错别字,中文拼写纠错(Chinese Spelling Correction,CSC)可以对中文文本中的 typo 进行检测和纠正。拼写纠错
 在学习了一些数据挖掘和机器学习的算法之后,需要积累实际开发经验。在实践的过程中不仅需要自己摸索,还需要向牛人学习和请教。Kaggle就提供这样的数据平台,企业或者研究者可以将数据、问题描述、期望的指标发布到Kaggle上,开发者其数据下载到本地,分析,处理后将结果上传,Kaggle将结果排名显示,有的比赛设有资金。Kaggle还有活跃的讨论区,供大家交流。如何使用Kaggle 我们先来看看,Ka
自然语言处理在文本信息抽取、自动审校、智能问答、情感分析等场景下都有非常多的实际应用需求,在人工智能领域里有极为广泛的应用场景。然而在实际工程应用中,最经常面临的挑战是我们往往很难有大量高质量的标注语料。  “巧妇难为无米之炊”,在缺少语料的情况下,如何达到良好的NLP应用效果,是这些场景要落地所必须解决的问题。我们通常称其为“低资源问题”,或者称为“小样本学习”问题,本文从达
文本摘要是一种从一个或多个信息源中抽取关键信息的方法,它帮助用户节省了大量时间,用户可以从摘要获取到文本的所有关键信息点而无需阅读整个文档。文本摘要按照输入类型可分为单文档摘要和多文档摘要。单文档摘要方法是指针对单个文档,对其内容进行抽取总结生成摘要;多文档摘要方法是指从包含多份文档的文档集合中生成一份能够概括这些文档中心内容的摘要按照输出类型可分为抽取式摘要和生成式摘要。抽取式摘要从源文档中抽取
对比学*的一个关键思想:  如何构建对比的数据对,更细致的如何构建正样本和负样本,更好的正样本和负样本能够帮助模型更好的理解数据。 一、CIEAR预训练模型主要解决的是token级别的特征抽取,很少做句子级别的特征抽取。BERT仅仅在词嵌入的表现优秀,但是在句子级别的建模任务表现不一定会有多优秀。本文提出的方法CLRAR是针对句子级别特征抽取任务做的工作。设计了四种数据增强的方式: ra
一、文本分类综述1、基本概念(1)定义 在给定的分类体系中(eg:文档P(可能含有标题t)),将文本分到指定的某个或某几个类别当中(2)分类对象 短文本(句子/标题/商品评论)、长文本(文章)(3)实质 使用包含文本文档和标签的数据集来训练一个分类器。(4)应用场景及其对应标签应用场景对应标签情感分析(Sentiment Analyse)(积极、消极、中性)主题分类(Topic Labeling)
NLP的全称是Natuarl Language Processing,中文意思是自然语言处理,是人工智能领域的一个重要方向自然语言处理(NLP)的一个最伟大的方面是跨越多个领域的计算研究,从人工智能到计算语言学的多个计算研究领域都在研究计算机与人类语言之间的相互作用。它主要关注计算机如何准确并快速地处理大量的自然语言语料库。什么是自然语言语料库?它是用现实世界语言表达的语言学习,是从文本和语言与另
一、课程介绍斯坦福大学于2012年3月在Coursera启动了在线自然语言处理课程,由NLP领域大牛Dan Jurafsky 和 Chirs Manning教授授课:https://class.coursera.org/nlp/以下是本课程的学习笔记,以课程PPT/PDF为主,其他参考资料为辅,融入个人拓展、注解,抛砖引玉,欢迎大家在“我爱公开课”上一起探讨学习。课件汇总下载地址:斯坦福大学自然语
1、隐马尔可夫链路一般较短原因 连乘链路太长,会导致数据稀疏,零频词太多 2、零频问题的一般解决方案平滑/回退/差值当n设置较小时,仍然会存在oov问题(语料中未出现的词)2.1、平滑2.1.1、加1平滑/拉普拉斯平滑当很多词出现次数较少时,加1会带来较大的偏差,加1平滑效果一般不佳2.1.2、delta平滑/加k平滑2.1.3、good Turing 平滑为出现频次为r次词的
编者:今年的INTERSPEECH于8月20日至24日在瑞典的斯德哥尔摩顺利召开,众多的高校研究机构和著名的公司纷纷在本次会议上介绍了各自最新的技术、系统和相关产品,而阿里巴巴集团作为钻石赞助商也派出了强大的阵容前往现场。从10月25日开始,阿里iDST语音团队和云栖社区将共同打造一系列语音技术分享会,旨在为大家分享INTERSPEECH2017会议上语音技术各个方面的进展。第一期分享的主题是
目录一、help和doc命令二、数组1.常数 2.变量3.向量 1.直接构造法 2.增量方法构造向量 3.使用linspac构造向量4.使用logspace构造向量  三、矩阵1.简单的创建方法  2.使用meshgrid构造矩阵 3.构造特殊矩阵4.聚合矩阵  5.描述数组和矩阵&nbs
前一阵子Bert火的一塌糊涂,本以为会占据顶峰很长一段时间,结果还没多久就出现的了GPT-2,它不仅效果显著,而且还解决了Bert无法解决的生成文本的问题,一下子跃上神坛~其实,GPT-2与GPT一样,都使用的是单向语言模型,那为何GPT-2的效果会如此惊人呢?惊人之处又体现在哪里呢?且听我慢慢道来~ 传送门 GPT 原文: https://s3-us-west-2.amazo
学习资料 pt100温度变送器,支持k型热电偶 4-20mA输出全套方案资料 2线、3线、隔离型 (样板是2线电流/0-10V输出) 0-5V 0-10V输出 国产24位ADC精度0.01度,客益电子pwm转4-20ma,0-10v国产12位DAC千分之一线 485通信到串口示波器看温度电流曲线 2.4寸tft液晶屏,有串口屏接口 外壳采用abs+透明上盖触摸按键组成 2点仪表标定校准方式 通用s
原创 5月前
76阅读
未找到标题_1746534452
作者 | 王嘉宁@华师数据学院  整理 | NewBeeNLP  大家好,这里是NewBeeNLP。对抗训练本质是为了提高模型的鲁棒性,一般情况下在传统训练的基础上,添加了对抗训练是可以进一步提升效果的,在比赛打榜、调参时是非常重要的一个trick。对抗训练在CV领域内非常常用,那么在NLP领域如何使用呢?本文简单总结
标题:深入浅出解析永磁同步电机NVH的仿真设计流程 永磁同步电机(PMSM)的NVH(Noise, Vibration, and Harshness)性能,对于现代电机系统来说至关重要。本文将详细介绍基于ANSYS Maxwell和Workbench的永磁同步电机NVH仿真设计流程,从电磁仿真到模态仿真,再到振动噪声的分析,适合新手入门学习。 一、电磁仿真——初步了解永磁同步电机 电磁仿真是永磁同
摘要科学研究的一个基本目标是了解因果关系。然而,尽管因果关系在生命和社会科学中发挥着关键作用,但在自然语言处理(NLP)中却没有同等的重要性,后者传统上更重视预测任务。随着因果推理和语言处理融合的跨学科研究的兴起,这种区别正开始消失。然而,关于NLP中因果关系的研究仍然分散在各个领域,没有统一的定义、基准数据集和对剩余挑战的清晰表述。在这项综述中,我们巩固了跨学术领域的研究,并将其置于更广阔的NL
历史版本NLP,仅参考
原创 精选 5月前
816阅读
4点赞
NLP:电影评论情感分类
一  项目简介       睡前给小朋友讲故事,哄自己的宝贝睡觉,已经成为很多家长的沉重负担,特别是很多女性,既要在外面拼搏,又要负责繁重的家务,好不容易想躺一下,不通情达理的心肝宝贝吵着听故事,真累!       这款智能设备可以为您分忧解难:通过ardiuno min单片机,语音模块,RGBLE
面向具体任务的检索式问答对于面向具体任务的问答系统,目前市面上的系统维护成本较高,大部分由手写规则构成,扩展能力较差,少部分较为先进的系统采用了检索式方案,其本质是对用户问题进行分类再针对性回答,因此其核心算法是基于问句语义相似度的计算,这些方法大多使用数据驱动的方式代替传统的特征工程与手写模板。对于面向具体任务的问答系统,其设计的核心目标是专注做好一件事情,因此需要保证答句语法正确、内容准确。大
作者:Jiayuan Mao、Chuang Gan,机器之心编译,参与:张倩、路。 自人工智能的概念提出以来,关于符号主义和连接主义的争论就不绝于耳。究竟哪一种方式可以实现更好的人工智能?这一问题目前还没有定论。深度学习的快速发展让我们看到连接主义在构建 AI 系统中的优势,但其劣势也很明显,如对大量数据的依赖。因此,越来越多的学者开始寻求取两者之长的 AI 系统实现方式,本文中介绍的 Ne
前言大一统模型目前越来越火,不论是今天要给大家介绍的信息抽取统一模型,还是再往大了说多模态统一模型,理论上来说这个idea的出发点还是不错的,在理想情况下,他可以将很多任务建模到同一个模型,使得任务之间可以相互增益,而且另外一个好处就是既然统一到同一个模型了,那么各个任务的数据集都可以使用,一块丢进去进行学习,数据量剧增。论文链接:https://arxiv.org/pdf/2203.12277.
最近在研究四旋翼飞行器(UAV)的轨迹跟踪问题,特别是如何让无人机在保持0航向的情况下,以0.1 rad/sec的角速度在5米高度跟踪一个圆形轨迹。这个问题听起来简单,但实际操作中涉及到很多控制理论和代码实现。今天就来聊聊如何用模型预测控制(MPC)来实现这个目标。 首先,我们需要明确MPC的基本原理。MPC是一种通过预测未来系统的行为来优化当前控制输入的方法。简单来说,就是通过不断预测未来的状态