Hierarchical Attention-based Framework简介     层次文本分类(Hierarchical Text Classification, HTC),就是一个给定的层次标签体系(典型的是树状的结构或者有向无环图结构),预测文本的标签路径(路径中父节点标签对子节点标签存在包含关系),一般是每层都至少有一个标签,所以是一个带路径的多标签分类任务。▲树状层次标签            
                
         
            
            
            
            允中 NLP近几年非常火,且发展特别快。像BERT、GPT-3、图神经网络、知识图谱等技术应运而生。重点:课程会不断更新,比如一篇新的有趣的论文出现在arxiv,会在1个月之内提供技术的讲解和实战。相信这个课程将是你在NLP领域中的终身伴侣。01 课程大纲第一部分:机器学习基础篇第一章:自然语言处理概述自然语言处理的现状与前景自然语言处理应用自然语言处理经典任务 第二章:数据结构与算法基            
                
         
            
            
            
            整理自: 及 其它资料。需求层次 理论(Maslow's hierarchy of needs)由美国犹太裔人本主义心理学家亚伯拉罕·马斯洛(Abraham Maslow)1943年提出,是研究组织激励(motivation)时应用最广泛的理论。马斯洛的需求金字塔分为以下几个层次。 自我实现 尊重 爱和归属感 安全需求 生理需求一定要重视激励的重要性,面对下属、新人,应该首先讲求激励。一个将自己的            
                
         
            
            
            
            NLP复习资料第16讲—知识图谱第17讲-信息抽取(知识图谱生命周期中信息获取的关键技术)  国科大,宗老师《自然语言处理》课程复习笔记,个人整理,仅供参考。 第16讲—知识图谱知识图谱=经典知识表示理论+语义网资源描述框架经典知识表示理论:一阶谓词逻辑,语义网络(有向图描述知识系统),框架(框架名,槽,侧面,和值),脚本(与框架类似,由槽组成,用于描述过程)语义网是一组描述规范:XML,RDF            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-27 13:20:32
                            
                                576阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            自然语言处理(Natural Language Processing,NLP)是人工智能、计算机科学、信息工程的交叉领域,涉及统计学、语言学等知识。语言是人类思维的证明,故自然语言处理是人工智能技术的最高境界,因而被誉为“人工智能皇冠上的明珠”。而谷歌BERT和百度ERNIE都取得过该领域的SOTA(State-Of-The-Art),因此本文着重讨论BERT和ERNIE的发展历程以及在NLP领域            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-14 11:51:43
                            
                                553阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            目录自然语言处理涉及的几个层次?nlp任务流程BERT适用场景BERT适合解决句子匹配类任务的原因BERT已经发布的框架包括BERT的主要贡献Transrofmer模型讲解注意力机制attention时主要分为三步BERT的输入词向量是三个向量之和:实验的代码流程如下:过拟合的解决方案监督学习和非监督学习常用的分类器有哪些LR和SVM的联系与区别是什么?CNN最成功的应用是在CV,CNN通过什么手            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-08-21 11:27:06
                            
                                201阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            今天开始了深入MySQL的学习, 总不能只当一名CRUD BOY吧哈哈哈哈哈哈哈......所以抱着很强烈的冲劲深入MySQL, 希望能和大家一起努力, 变成更优秀的人!今天多学一门实用的技术, 明天少说一句求人的话, 那么让我们开始吧!先附上一幅MySQL的逻辑架构图↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓↓四个层次1. 连接层用于对客户端的连接处理、认证等相关操作,通俗的来说            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-10-04 15:26:55
                            
                                26阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            2020-10-04 09:24:37-09:48:30备注:大部分内容转自知乎谢春霖 NLP理解层次:对一个事情的理解,我们可以分为6个理解层次 精神精神是什么意思?就是你与世界的关系。也就是我们经常听到的「人生使命」,你来到这个世界是为了什么?你能为别人,为社会,为整个人类带来什么?这个世界会因为你而有什么不同? 身份你之所以有时候会不知道该如何选择,除            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-06-18 16:47:49
                            
                                63阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            https://wiki.mbalib.com/wiki/NLP%E6%80%9D%E7%BB%B4%E9%80%BB%E8%BE%91%E5%B1%82%E6%AC%A1            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2022-06-05 00:39:05
                            
                                130阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            深度学习第二十章 NLP概述一、自然语言处理基本概念1. 什么是NLP?NLP是Natural Language Processing(自然语言处理)简写,NLP常见定义有: 
  定义一:自然语言处理是计算机科学与语言中关于计算机与人类语言转换的领域。 – 中文维基百科定义二:自然语言处理是人工智能领域中一个重要的方向。它研究实现人与计算机之间用自然语言进行有效沟通的各种理论和方法。 – 百度百            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-21 09:48:48
                            
                                169阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            我们的大脑有六个不同层次去处理事情及问题,称为理解层次: 系统:我与            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2022-05-24 09:59:31
                            
                                455阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            知识图谱一、知识图谱简介知识图谱是专家系统、语言学、语义网、数据库等多领域融合的产物,知识图谱描述各种实体及其之间的关系。专家系统 包括知识库和推理引擎,代表项目CycwordNet 中文类似的有同义词词林、HowNet链接数据与基于百科知识的知识图谱构建 语义网(比如资源描述框架RDF)和链接数据的概念,DBpedia、Yago项目(主要得益于Wikipedia的开展)国内知识图谱的构建 主要利            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-07 15:59:47
                            
                                231阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            NLP分类经验总结以下文章来源于对白的算法屋 ,作者对白在我们做一个项目或业务之前,需要了解为什么要做它,比如为什么要做文本分类?项目开发需要,还是文本类数据值得挖掘。1、介绍目前讨论文本分类几乎都是基于深度学习的方法,本质上还是一个建模的过程,包括数据准备-预处理-模型选择-模型调优-模型上线这样的一套流程。在本地进行文本分类开发我们需要关注的两个主要的问题:数据处理和模型选择,这两者是相互依赖            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-19 17:55:11
                            
                                147阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            记录NLP的一些重要概念,不断更新。self-attention 有一种新的layer,叫self-attention,它的输入和输出和RNN是一模一样的,输入一个sequence,输出一个sequence,它的每一个输出b1-b4都看过了整个的输入sequence,每一个输出b1-b4可以并行化计算。TransformerTransformer主体框架是一个encoder-decoder结构,摒            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-28 19:10:24
                            
                                112阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            语言模型(LM)的作用是估计不同语句在对话中出现的概率,并且LM适用于许多不同的自然语言处理应用程序(NLP)。 例如,聊天机器人的对话系统。在此文中,我们将首先正式定义LM,然后演示如何使用实际数据计算它们。 所有显示的方法在Kaggle notebook中有完整的代码展示。一、语言模型(LM)的定义概率语言建模的目标是计算单词序列的语句出现的概率:      &n            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-14 10:36:44
                            
                                226阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            Input EmbeddingBERT Bert采用两阶段模型,首先是语言模型预训练,其次是使用 Fine-Tuning 模式解决下游任务。BERT 预训练模型分为以下三个步骤:Embedding、Masked LM、Next Sentence Prediction。Embedding 由三种 Embedding 求和而成: Token Embeddings 是词向量,第一个单词是 CLS 标志,            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-02-13 10:24:32
                            
                                45阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            二月出了 ELMo,六月出了 OpenAI Transformer,十月又出了BERT,下半年开始的这场预训练语言模型的火,越燃越大啊,希望能烧出 CV 那样的 baseline。 不得不说,Jacob 的这篇 BERT 真是大手笔,massive data + massive model + massive computation,踏平了 N 多 task,称得上 NLP 新范式了。当然,常人基            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-06-08 13:30:00
                            
                                59阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
             随着 Google 推出的 BERT 模型在多种 NLP 任务上取得 SOTA,NLP 技术真正进入了大规模应用阶段,由此,我们展开了对 BERT 的探索。 训练模型 训练数据训练其他模型时我们已经标注了大量的训练数据,主要把相似句对分为三类来标注:不相似(0)、相关(0.5)、相似(1)所以,训练 BERT 模型时就可以“拿来主义”了。模型修改我们的主要应用点是相            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-02-02 13:36:33
                            
                                57阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            陆:句法分析语言学的不同分支对应了不同的nlp基础技术,词法学对应于自动分词、词性标注等,而句法学对应的是句法分析。句法(Syntax): 研究语言的句子结构,针对语言学两个基本关系中的组合关系。一、句法分析概述概念句法分析:判断单词串是否属于某个语言,如果是,则给出其(树)结构。句法分析包含两个子问题,一是语言体系的形式化描述,二是语言结构的分析算法。
   一般而言,语言结构分析算法的任务着重            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-31 18:17:08
                            
                                209阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            BERT终于来了!今天,谷歌研究团队终于在GitHub上发布了万众期待的BERT。代码放出不到一天,就已经在GitHub上获得1500多星。项目地址:https://github.com/google-research/bert#fine-tuning-with-bert就在半个月前,谷歌才发布这个NLP预训练模型的论文(https://arxiv.org/abs/1810.04805)。BERT            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-07-31 11:39:29
                            
                                43阅读
                            
                                                                             
                 
                
                                
                    