什么是AI?AI 是 Artificial Intelligent 的缩写,是我们通常意义上说的人工智能。简单来说就是让机器能够模拟人类的思维能力,让它能够像人一样感知、思考甚至决策。为什么要开发AI?因为在过去,都是我们学习机器语言(如C,C++,Java等高级语言)当然,这里的高级语言需要通过 编译器 才能编程机器能够识别的东西但是这样其实就被局限住了,因为机器只能通过人类的编程而被命令的做这            
                
         
            
            
            
            一、文本分类简介在nlp中,文本分类是一个非常常见的任务,它将一个文本归结于特定的标签。目标:基于训练数据,训练分类模型。使用训练好的模型,预测新数据类型。典型应用场景:垃圾邮件识别情感分析意图识别技术演化:规则机器学习:lr,svm,集成学习传统深度学习:fastrnn、textcnn、bilistm前沿:transformer、bert任务拓展序列标注任务句子对分类任务多标签任务二、机器学习技            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-01-28 07:42:13
                            
                                69阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            改变世界的七大NLP技术,你了解多少?(上)在第1部分中,我介绍了自然语言处理(NLP)领域以及为其提供支持的深度学习。我还介绍了NLP中的3个关键概念:文本嵌入(字符串的矢量表示),机器翻译(使用神经网络翻译语言),以及Dialogue和Conversations(可以实时与人进行对话的技术)。在第2部分中,我将介绍另外4项重要的NLP技术,你应该关注这些技术,以跟上这一研究领域快速增长的步伐。            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-22 16:43:38
                            
                                124阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            AI,Artificial Intelligence,顾名思义,是人工通过高强度的计算能力,并基于大量的环境数据、行为数据、历史数据等大数据支持,或是一定规则的自学习机制,来分析特定输入的情况下,事物的相关性、影响和可能处理方法,从而使机器不只是进行简单的运算,而是能够在某种程度上进行类智能的思考和运作。 业界的大事发生时,总会撩动AI热潮。远的是96年和97年卡斯帕罗夫和深蓝的对弈,2011年I            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-01-15 06:13:33
                            
                                11阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            NLP介绍自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别。自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统,特别是其            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-03 09:10:47
                            
                                88阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            kaiming的MAE和年初的CLIP可能是今年CV领域唯二的重磅文章,有预感MAE会成为CV领域和BERT地位相当的一篇文章。从BERT和MAE的形态上来说,都引入了mask机制来做无监督预训练,但是又因为vision和language两种模态上本质的不同,导致mask的设计上和整体框架上有所区别。从NLP的Transformer到BERT,然后到CV的ViT、BEiT,CV领域的无监督预训练经            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-06-08 13:35:22
                            
                                45阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            CV和NLP领域的Transformer原理和实践在2017年,Transformer模型由论文《Attention is all you need》提出,最开始被应用于机器翻译任务上并取得了很好的效果。它摒弃了传统LSTM的串行结构,使用了基于Self Attention的模型结构,具有更好的并行计算能力,这使得它在大规模数据模型训练方面更有优势。后来基于Transformer结构的模型大放异彩            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-18 21:52:02
                            
                                89阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            1.什么是NLP 2.NLP领域的挑战(1)同一个意思有多种表达方式(2)一词多义(Ambiguity)解决一词多义的问题方法:从数据中学习(结合上下文Context) 3.机器翻译系统的案例 上图的意思:根据表中的12对翻译结果,翻译所给出的一句话。做法:给定语料库,在语料库中做统计,进行匹配(基于统计学)。缺点:<1>慢  <2>            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-07-25 23:44:30
                            
                                188阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            # 自然语言处理与计算机视觉的结合
在当今迅速发展的人工智能领域,自然语言处理(NLP)与计算机视觉(CV)的结合越来越受到关注。这两种技术各自都有着丰富的应用场景,而它们的结合能够产生更强大的功能,使得机器能够更好地理解和处理多模态数据。
## 什么是自然语言处理?
自然语言处理是让计算机能够理解、解释和响应人类语言的技术。它主要用于文本数据的分析和处理,包括情感分析、机器翻译和语音识别等            
                
         
            
            
            
            1.加载lib/头文件分两种方法:(1)适用于当前项目1 第一步:项目->属性->C/C++->常规->附加包含目录(浏览.h文件的路径)   添加包含文件
2 第二步:项目->属性->C/C++->链接器->输入->附加依赖项(写入lib的名称) 添加库文件
3     项目->属性->C/C++->链接器->输入-&            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-07-01 08:06:08
                            
                                49阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            编辑: ShuYini 引言语言模型是构建NLP应用程序的关键。现在人们普遍相信基于预训练模型来构建NLP语言模型是切实有效的方法。随着疫情阴霾的散去,相信NLP技术会继续渗透到众多行业中。在此过程中,肯定有很多同学会用到NLP预训练模型,为此作者整理了目前2023年NLP的十大预训练模型及论文。BERT模型  BERT模型(Bidirectional Encoder Representatio            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-02-04 21:22:46
                            
                                39阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            时时刻刻保持一颗不断学习的心,要做一个有心人!人工智能行业涉及到的英文缩写颇多,现总结如下。会不断保持更新,敬请各位小伙伴们关注~谢谢大家!前方高能!!!人工智能常用英文缩写 一、科普篇:NLP:Natural Language Processing,自然语言处理;CV:Computer Vision,计算机视觉;BI:Business Intelligence,商业智能;RS:Reco            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-07-04 21:57:00
                            
                                39阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            1. 大模型的技术趋势本节我们将分析“大模型现象”在语言模型以外的领域的进展情况,主要包括计算机视觉领域和多模态(语言+图像)领域。计算机视觉(Computer Vision,CV)领域和NLP一样,也是本轮深度学习科技热潮中被极大颠覆了的研究领域,2012年被提出的近代深度学习的开山之作AlexNet便是CV领域中的深度卷积神经网络(Convolutional Neural Network,CN            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-24 21:30:56
                            
                                147阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            其实,机器学习跟模式识别,统计学习,数据挖掘,计算机视觉,语音识别,自然语言处理等领域有着很深的联系。从范围上来说,机器学习跟模式识别,统计学习,数据挖掘是类似的,同时,机器学习与其他领域的处理技术的结合,形成了计算机视觉、语音识别、自然语 言处理等交叉学科。因此,一般说数据挖掘时,可以等同于说机器学习。同时,我们平常所说的机器学习应用,应该是通用的,不仅仅局限在结构化数据,还有图 像,音频等应用            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-10-26 21:07:24
                            
                                194阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            该篇文章右谷歌大脑团队在17年提出,目的是解决对于NLP中使用RNN不能并行计算(详情参考《【译】理解LSTM(通俗易懂版)》),从而导致算法效率低的问题。该篇文章中的模型就是近几年大家到处可以听到的Transformer模型。一、算法介绍前的说明由于该文章提出是解决NLP(Nature Language Processing)中的任务,例如文章实验是在翻译任务上做的。为了CV同学更好的理解,先简            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-29 22:00:56
                            
                                222阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            主要分支介绍通讯、感知与行动是现代人工智能的三个关键能力,在这里我们将根据这些能力/应用对这三个技术领域进行介绍:计算机视觉(CV)、自然语言处理(NLP)在 NLP 领域中,将覆盖文本挖掘/分类、机器翻译和语音识别。机器人 分支一:计算机视觉计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。物体检测和人脸识别是其比较成功的            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-07-30 22:44:55
                            
                                2416阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            详细信息如下:论文链接:https://arxiv.org/abs/2112.07074项目链接:未开源导言:  在本文中,作者探讨了建立一个统一的基础模型的可能性,可以适应视觉和纯文本的任务。基于BERT和ViT,作者设计了一个统一的Transformer,由特定模态tokenizer、共享Transformer编码器和特定任务输出head组成。为了有效地在未配对的图像和文本上共同训练所提出的模            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-14 12:13:11
                            
                                67阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            一句话简介:2018年发掘的自回归模型,采用预训练和下游微调方式处理NLP任务;解决动态语义问题,word embedding 送入单向transformer中。一、GPT简介 1.1 背景 目前大多数深度学习方法依靠大量的人工标注信息,这限制了在很多领域的应用。此外,即使在可获得相当大的监督语料情况下,以无监督学习的方式学到的表示也可以提供显着的性能提升。到目前为止,最引人注目的证据是广泛使用预            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-22 18:16:20
                            
                                28阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            论文题目:Forward and Backward Information Retention for Accurate Binary Neural Networks文献地址:https://arxiv.org/abs/1909.10788源码地址: https://github.com/htqin/IR-NetIR-Net应用中的效果  作者使用了两个基准数据集:CIFAR-10和ImageNe            
                
         
            
            
            
            什么是多模态人工智能?多模态人工智能是一种人工智能,能够处理和理解来自不同模式或模态的输入,包括文本、语音、图像和视频。这意味着它可以识别和解释各种形式的数据,而不仅仅是一种类型,这使得它更加通用并适应不同的情况。从本质上讲,多模态人工智能可以像人类一样“看”、“听”和“理解”,使其能够以更自然、直观的方式与世界互动。多模态人工智能的应用多模式人工智能的能力是巨大且广泛的。以下是多模式人工智能可以