目录1、自然语言表示学习1.1 什么是自然语言处理(NLP)1.2 NLP的基础:语言表示1.3 自然语言处理任务1.3.1 序列到类别1.3.2 同步的序列到序列1.3.3 异步的序列到序列1.4 NLP的语义组合1.5 NLP模型演变1.6 NLP中的三大模型1.7 注意力机制:1.7.1 自注意力模型1.7.3 多头自注意力模型1.8 Transformer2、预训练模型2.1 预训练模型            
                
         
            
            
            
            自然语言(Natural Language)中有NLP(Natural Language Processing)、NLU(Natural Language Understanding)和NLG(Natural Language Generation),它们的区别是什么呢? 本文旨在快速涵盖NLP、NLU和NLG之间的异同,并谈论NLP的未来。文章作者是Nahla Davies, 今年6月            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-21 09:26:10
                            
                                500阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            # 从零开始学习 LP 和 NLP:新手开发者的指南
作为一名刚入行的小白,你可能会对“LP(线性规划)”和“NLP(非线性规划)”感到陌生。本文将为你详细讲解这两个概念,并帮助你逐步实现它们。我们将按照一个清晰的流程来完成这一目标,结合代码示例和可视化数据分析。
## 流程概述
以下是实现 LP 和 NLP 的步骤概述:
| 步骤 | 描述 |
|------|------|
| 1            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-10-25 04:52:43
                            
                                111阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            中文分词和词性标注是中文自然语言处理的两个基本任务。尽管以BERT为代表的预训练模型大行其道,但事实上,中文中基于全词覆盖 (whole word masking)的预训练模型比直接使用单字编码的效果更好,所以引入词信息可能会达到更好的效果。 同时,尤其在工业场景对分词有非常直接的诉求,比如,虽然字模型对于各种字的编码器能够达到非常好的效果,但是依然无法达到效率和性能的平衡,而且在很多场            
                
         
            
            
            
            # 自然语言处理(NLP)与语言学处理(LP)的区别
自然语言处理(Natural Language Processing,简称NLP)和语言学处理(Linguistic Processing,简称LP)是两个在语言学和计算机科学领域中广泛应用的概念。尽管它们在名字上非常相似,但实际上它们有着不同的定义和目标。本文将解释NLP和LP的区别,并通过代码示例来帮助读者更好地理解这两个概念。
##            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-01-19 10:22:56
                            
                                883阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            NLP是神经语言程序学(Neuro-Linguistic Programming)的英文缩写。在香港有意译为【身心语法程式学】。N(Neuro)指的是神经系统,包括大脑和思维过程。L(Linguistic)指的是语言,更准确地说是指从感觉信号的输入到构成意思的过程。P(Programming)指的是产生某种后果而要执行的一套具体指令。NLP即指我们思维上及行为上的习惯,就如同电脑中的程序,可以透过            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2018-05-29 17:36:00
                            
                                287阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            引言 新整理的最新论文又又来了,今天继续分享十篇今年最新NLP顶级论文,其中主要包括模型水印添加(想法新颖,一个不错的方向,强烈推荐仔细看一下)、状态空间模型在语言建模中的应用、指令元学习、大型模型训练效率提升(CiT可显着加快训练速度)、大模型到小模型推理能力转移(较小模型的准确性从8.11%提高到21.99%)、大模型简化(权重数量至少减少50%)、对话模型合规检测等。模型添加水印  大型语言            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-09-14 12:30:55
                            
                                233阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            NLP (Natural Langunge Possns,自然语言处理)是计算机科学领域以及人工智能领域的一个重要的研究方向,它研究用计算机来处理、理解以及运用人类语言(如中文、英文等),达到人与计算机之间进行有效通讯。所谓“自然”乃是寓意自然进化形成,是为了区分一些人造语言,类似C++、Java 等人为设计的语言。二、内容 2.1 NLP技术点 接下来通过分析对象和分析内容两个不同的维度来进行表            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-03 20:40:23
                            
                                49阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            ## 从 NLP 转化成 LP 的流程
作为一名刚入行的小白,理解如何将自然语言处理(NLP)结果转化为逻辑程序(LP)可能会有些复杂,但我将为你梳理这个流程并提供详细的代码示例。我们可以从以下几个步骤来实现这个目标:
| 步骤 | 描述                             |
|------|----------------------------------|
| 1            
                
         
            
            
            
            有限合伙制基金及基金管理企业的合伙人分为有限合伙人(LP, Limited Partner)及普通合伙人(GP, General Partner)。简单而言,有限合伙人即真正的投资者,但不负责具体经营;只有其中的普通合伙人有权管理、决定合伙事务,负责带领团队运营,对合伙债务负无限责任。
 
1)普通合伙人对合伙企业债务负无限责任。有限合伙人只以其出资对合伙企业负有限责任;
&nbs            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                            精选
                                                        
                            2013-05-06 12:23:18
                            
                                1128阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            【pre】在看一篇推文的时候,里面有这么一句话: 诶,看这意思,CV,NLP,RL,GNN是DL的纵向领域?其他三个尚且眼熟,但RL是什么呢?于是我去阅读了1、2,把我觉得有用的简单整理一下。【content】1、AI、ML、RL、DL的关系(1)AI:人工智能(Artificial Intelligence, AI)是研发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-01-19 16:53:51
                            
                                188阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            前言这些知识点基本是本人在准备春招和秋招时做的笔记,东西比较杂,有的是自己总结,有的是参考网上博客,可能不是很准确,还望各位批评指正,多多交流。问-1:L1和L2正则化的联系和区别?答: 相同点: 1:都可以用来防止过拟合 2:其主要思想都是结构风险最小化:在经验风险最小化的基础上(也就是训练误差最小化,原有的损失),尽可能采用简单的模型,以此提高泛化预测精度。 不同点: 1:L1正则化(L1范数            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-08-05 09:11:56
                            
                                80阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            从这个意义上讲,我们可以说GPT-2本质上是键盘应用程序的下一个单词预测功能,但是它比您的手机具有更大,更复杂的功能。 GPT-2在称为WebText的庞大40GB数据集上进行了训练,作为研究工作的一部分,OpenAI研究人员从互联网上进行了爬网。 为了比较存储空间,我使用的键盘应用程序SwiftKey占用了78MB的空间。 经过训练的GPT-2的最小变体,占用500MB的存储空间来存储其所有参数            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-01-30 20:48:59
                            
                                141阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            导读:自然语言处理(NLP)是计算机科学,人工智能,语言学关注计算机和人类(自然)语言之间的相互作用的领域。语言是人类区别其他动物的本质特性。在所有生物中,只有人类才具有语言能力。人类的多种智能都与语言有着密切的关系。人类的逻辑思维以语言为形式,人类的绝大部分知识也是以语言文字的形式记载和流传下来的。因而,它也是人工智能的一个重要,甚至核心部分。下面是整理的其他文章,希望对大家有所帮助,人工智能数            
                
         
            
            
            
            最近在学习语音识别的知识,发现李宏毅老师今年也出了相应的视频,相应的课件可以从下面的位置获取:http://speech.ee.ntu.edu.tw/~tlkagk/courses_DLHLP20.htmlYoutube视频:https://youtu.be/AIKu43goh-8https://youtu.be/BdUeBa6NbXAhttps://youtu.be/CGuLuBaLIeI 课件            
                
         
            
            
            
            【笔记】GPT 文章目录【笔记】GPT介绍原理预训练过程fine-tuning  GPT和ELMO非常相似,把语言模型直接迁移到具体的NLP任务中,因此,更容易迁移学习;不过也有弊端,这种将结构带入下游任务中的模式,不一定对每个任务都适用,GPT主要还是针对分类任务和标注性任务,对于生成任务,比如机器翻译,则它的结构也没办法进行很好的迁移; 介绍GPT在2018年由OpenAI提出,通过在大量的语            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-27 09:26:53
                            
                                142阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            OCR也叫作光学字符识别,主要用到了CNN来提取特征以及RNN来对序列进行分析相关性,这两者后来就结合而成了CRNN。然后还用CTC(Connectionist temporal classification)作为损失函数来解决对齐问题。CNN简介卷积神经网络里有一个概念叫做感受野。感受野是用来表示网络内部不同神经元对图像的感受范围,也就是在CNN中表示原图的区域大小,那是因为CNN关注局部像素的            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-06 20:42:48
                            
                                121阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            作为计算机视觉领域的一个分支,OCR对于人机交互相当具有重要性。      
       
  在人机交互方面,大多人想到的都是语音交互,毕竟这是人类之间运用率最高的交流方式,且语音识别、自然语言理解等技术目前也发展的相当不错。     
       
  但是,我们也不得不忽视这样一个事实:我们每天都被文字所包围,像每天办公的文件、上课的板书、商品的介绍等等都是由文字组成的,并且这些文字在某            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-06-15 09:13:10
                            
                                104阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            1.ERNIE 1.0 完成快递单信息抽取命名实体识别是NLP中一项非常基础的任务,是信息提取、问答系统、句法分析、机器翻译等众多NLP任务的重要基础工具。命名实体识别的准确度,决定了下游任务的效果,是NLP中的一个基础问题。在NER任务提供了两种解决方案,一类LSTM/GRU + CRF,通过RNN类的模型来抽取底层文本的信息,而CRF(条件随机场)模型来学习底层Token之间的联系;另外一类是            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-02-28 14:20:39
                            
                                84阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            导读:NeurIPS 2022 是 CCF A 类会议,人工智能领域方向的顶级国际会议之一。第36届神经信息处理系统会议将于今年 11 月 28 日至 12 月 9 日举行。官方发布的接收论文列表链接如下:https://nips.cc/Conferences/2022/Schedule?type=Poster。本文从 2000 多篇接收论文中筛选出了与自然语言处理相关的论文 200 多篇,并            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-01-10 12:23:27
                            
                                97阅读