手机随时阅读
新人专享大礼包¥24
本系列是ShowMeAI组织的斯坦福CS224n《自然语言处理与深度学习》的学习笔记,包含一整套【NLP深度教程】 和【20章课件注释】,是非常TOP的完整学习资料~
ShowMeAI按照不同的技术线与应用领域,以最专业和直观的方式讲解字节、阿里、腾讯、美团等头部企业的核心业务技术解决方案,覆盖推荐&广告、NLP、CV、金融科技等领域。
Python机器学习实战系列教程,以案例和代码驱动的方式,帮助大家学习机器学习算法应用流程和各个链条环节,掌握构建场景建模解决方案并进行效果调优的能力。
Python 是一门开源免费、通用型的脚本编程语言,它上手简单,功能强大,它也是互联网最热门的编程语言之一。这套Python基础教程不同于其他文字版教程,我们以最直挂的「图示」对每个内容和关键点「可视化」,配以最精准精简的代码,让大家尽快入门。
数据分析是一项应用非常广泛的技能。本系列教程展开讲解数据分析。这套数据分析教程不同于其他文字版教程,我们以最直挂的「图示」对每个内容和关键点「可视化」,配以最精准精简的代码,让大家尽快入。
本系列教程展开讲解AI所需的数学基础知识,力求以最直观最易懂的方式给帮助大家掌握AI依赖的数学知识最小子集。本教程内容覆盖线性代数与矩阵论,概率与统计,信息论,微积分与最优化几个核心的知识板块。
本篇内容是ShowMeAI组织的「图解大数据处理与开发」系列教程入口,本教程以大数据技术为根基,给大家讲解大数据开发与数据处理分析的相关知识与技能,并配以相关的实战案例帮助大家学习理解。
本篇内容是ShowMeAI组织的「图解机器学习算法」系列教程入口,本教程尽量以生动可视化的方式,帮助大家理解机器学习的核心知识和重要的系列模型,并配以相关的代码实现帮助大家了解应用方法。(对机器学习实战感兴趣的同学,可以关注ShowMeAI的另外一个系列[机器学习应用实践])
本篇内容是组织的「深度学习原理知识大全」系列教程入口,教程依托吴恩达老师《深度学习专项课程》,对内容做了重新梳理与制作,以更全面和直观的图文方式,对深度学习涉及的知识、模型、原理、应用领域等进行详解
本文讲解了损失函数(数据损失与正则损失)、多类 SVM 损失与Softmax损失比较、梯度计算方法(数值梯度与解析梯度)、梯度下降优化算法等【对应 CS231n Lecture 3】
图像分类是计算机视觉的核心任务。本文讲解数据驱动的模型算法,包括最邻近算法、KNN分类器、线性分类器的原理、各自的优缺点和实际应用【对应 CS231n Lecture 2】
本文讲解了斯坦福大学 CS231n 课程的内容框架(深度学习 + 卷积神经网络 + 计算机视觉应用)和学习基础,帮助了解计算机视觉的历史和技术发展【对应 CS231n Lecture 1】
本教程依托于 Stanford 斯坦福大学的《CS231n:深度学习与计算机视觉》,对深度学习与计算机视觉方向的图像分类、CNN、RNN、目标检测、图像分割、生成模型等各个主题做了体系化的梳理
NLP课程第20讲是课程最后一讲,介绍了NLP的兴起历程和发展方向,包括使用未标记数据进行翻译、大模型、GPT-2、QuAC、HotPotQA等。
NLP课程第19讲介绍了 NLP 和 AI 偏见产生的原因、衡量和应用,以及通过数据、机器学习技术、多任务学习等减少偏见、促进公平。
NLP课程第18讲介绍了基于词向量空间模型的构建、结构反向传播(BTS)及其Python编程、简单TreeRNN及应用、 复杂TreeRNN结构、斯坦福大学HAI研究所等。
本文介绍了 NLP 句法分析与树形递归神经网络,主要讲解树形递归神经网络、句法分析 (Constituency Parsing )、Recursive Neural Networks (RNN)、成分句法分析、SU-RNN、MV-RNN、RNTN等。
NLP课程第17讲介绍了问答系统(QA)、多任务学习、自然语言处理的十项全能(decaNLP)、多任务问答系统(MQAN)等。
NLP课程第16讲介绍了共指消解(指代消解) 的定义、作用和应用、指代检测、指代对模型、指代排序模型 、指代聚类模型 、效果评估等。
NLP课程第15讲回顾了NLG要点,介绍了解码算法、NLG任务及其神经网络解法,着手解决NLG评估中的棘手问题,并分析了NLG目前的趋势以及未来的可能方向。
NLP课程第14讲介绍了Attention注意力机制、文本生成、自相似度、相对自注意力、图片与音乐生成、迁移学习等。
NLP课程第13讲介绍了词向量 (word representations) 知识回顾、ELMo模型、ULMfit模型、Transformer结构和BERT等。
NLP课程第12讲介绍了语法学 (linguistics) 基础知识、基于字符粒度的模型、子词模型 (Subword-models)、混合字符与词粒度的模型、fastText模型等。
NLP课程第11讲介绍了卷积神经网络 (CNN)及模型细节,并讲解CNN和深度CNN在文本分类中的使用,最后介绍了Q-RNN模型。
本文介绍 NLP 中的卷积神经网络(CNN),讲解卷积神经网络的卷积层、池化层、多卷积核、多通道、卷积核、N-gram、filter、k-max pooling、文本分类等。
NLP课程第10讲介绍了问答系统动机与历史、SQuAD问答数据集、斯坦福注意力阅读模型、BiDAF模型、近期前沿模型等。
本文介绍 NLP 中的问答系统(Question Answering),包括 NLP 中的问答系统场景、动态记忆网络(Dynamic Memory Networks)、问答(QA)、对话、MemNN、DCN、VQA等。
NLP课程第9讲介绍了课程大项目的细节、寻找研究主题、项目数据、门控神经序列模型回顾、机器翻译主题、研究方式、结果呈现和评估等。
NLP课程第8讲介绍了机器翻译、sequence-to-sequence神经结构及其在机器翻译中的应用,并介绍了注意力机制及其对seq2seq效果的提升。
本文介绍了序列到序列模型(seq2seq)及其在翻译系统中的应用,以及注意力机制、序列解码器、神经翻译系统、基于字符级别的翻译模型等。
Copyright © 2005-2022 51CTO.COM 版权所有 京ICP证060544号