第一章 浅谈人工智能、神经网络和计算机视觉1.3.1 生物神经网络1.3.2 M-P模型 弱人工智能 强调人工 强人工智能 强调智能机器学习也被称为统计学习方法,机器学习中的大部分学习算法都是基于统计学原理的。机器学习和深度学习技术具有的的共同的一个特点:都需要使用尽可能多的数据来完成自身模型的训练,这样才能让最终输出的模型拥有强大的泛化能力。在使用深度学习方法解决计算机视觉问题的过程中,用的最
机器翻译和数据集机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。import os os.listdir('/home/kesci/input/')['fraeng6506', 'd2l9528']import sys sys.path.append(
双语评估替换分数(简称BLEU)是一种对生成语句进行评估的指标。完美匹配的得分为1.0,而完全不匹配则得分为0.0。这种评分标准是为了评估自动机器翻译系统的预测结果而开发的,具备了以下一些优点:计算速度快,计算成本低。容易理解。与具体语言无关。已被广泛采用。BLEU评分是由Kishore Papineni等人在他们2002年的论文BLEU a Method for Automatic Evalua
转载 10月前
299阅读
No.1机器翻译概述机器翻译就是将一种语言翻译为另一种语言。所有机器翻译系统本质上都是基于统计的,我们将总尝试使用非常大的语料库,一般称为平行语料库。在语料库中,有许多句子或段落以不同语言表述。No.2深度学习出现之前的机器翻译模型一、模型概述1.源语言f:法语2.目标语言e:英语3.模型的概率规则基于贝叶斯公式,普通的贝叶斯公式如下: 而模型中的规则对贝叶斯公式进行了修改,去掉了右侧的分母部
机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。主要步骤 有 数据清洗,分词 ,建立字典(即数字化),Encoder-Decoder注意力机制在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vecto
1.机器翻译概述: 使用计算机将一种自然语言转换成另一种自然语言的过程,机器翻译试图利用计算机来模拟人的翻译能力,因此他也成为人工智能的一个重要分支[1]。 2.机器翻译发展历史 开创期:(1947-1964) 1954年美国乔治敦大学与IBM公司合作,首次完成了英俄机器翻译,展示了机器翻译的可行性,拉开了机器翻译发展的序幕,随后多个国家开始对机器翻译的研究。[2] 低潮期:(1964-1975)
机器翻译1.定义将一段文本从一种语言自动翻译为另一种语言, 用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。2.code 实现## 机器翻译定义 """ 主要是将一段文本从一种语言自动翻译成另外一种语言 输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同 """ import os os.li
前言本篇博文是笔者学习自然语言处理课程的笔记,首发于公众号NLP学习者机器翻译模型首先简单回顾一下之前说的机器翻译模型,一般的机器翻译模型都由encoder与一个decoder组成,模型图如下:注意力模型Attention如果考虑普通的encoder-decoder模型,我们将会遇到这样的问题,即decoder只接受encoder的最后一个输出作为decoder的输入,所以我们需要在整个解码过程中
1、语言模型(language model)与翻译模型(translate model)经常接触两个名词,语言模型(LM)和翻译模型(TM),这一概念最早是从统计机器翻译中来的,统计机器翻译的首要任务是为语言的产生构造某种合理的统计模型,并在此统计模型基础上,定义要估计的模型参数,并设计参数估计算法。早期的基于词的统计机器翻译采用的是噪声信道模型(生成式模型),采用最大似然准则进行无监督训练,而近
1,概述  机器翻译中常用的自动评价指标是 $BLEU$ 算法,除了在机器翻译中的应用,在其他的 $seq2seq$ 任务中也会使用,例如对话系统。 2 $BLEU$算法详解  假定人工给出的译文为$reference$,机器翻译的译文为$candidate$。  1)最早的$BLEU$算法    最早的$BLEU$算法是直接统计$cadinate$中的单词有多少个出现在$referen
转载 2023-08-08 08:04:26
240阅读
机器翻译的研究和任务处理过程不仅涉及自然语言处理的诸多经典任务,包括数据挖掘、数据清洗、分词、词性标注、句法分析、语义分析等,而且还涉及解码算法、优化算法、建模及训练过程中各种机器学习算法的应用等。有三项重要的工作极大的推动了统计机器翻译的发展:对数-线性模型、参数最小错误训练方法、BLEU评测指标(2002)。自动评测指标BLEU的提出不仅避免了人工评价成本昂贵的弊端,而且可以直接成为模型优化的
机器翻译的产生与发展 机器翻译 (machine translation, MT) 是用计算机把一种语言(源语言, source language) 翻译成另一种语言(目标语言, target language) 的一门学科和技术。 机器翻译的困难如下: 自然语言中普遍存在的歧义和未知现象 机器翻译不仅仅是字符串的转换 机器翻译的解不唯一,而且
机器翻译的研究是理论方法和工程技术并举的。要建立一个机器翻译系统,首先需要确立语言分析和生成的基本观点,选择适用的语法理论,设计系统的运行机制,组织析句时需要的各种参数,还要针对所有这些考虑提出在计算机上实现的算法,并设计程序,调试通过。这个过程几乎涉及了计算语言学和自然语言处理的各个重要领域。我国机器翻译的研究从一开始就面对印欧语言和汉语的巨大差异,所以
引言:这是一个教程,目的是对机器翻译基础知识和建模方法进行较为系统的介绍,并在此基础上对机器翻译的一些前沿技术展开讨论(前身为《机器翻译:统计建模与深度学习方法》)。其内容被编纂成书,可以供计算机、人工智能相关专业高年级本科生及研究生学习之用,亦可作为自然语言处理,特别是机器翻译相关研究人员的参考资料。本书用tex编写,所有源代码均已开放。本书共分为四个部分,每部分由若干章节组成,章节的顺序参考
机器翻译及相关技术机器翻译(MT)是将一种语言转换成另一种语言,语言之间表达一个含义用的词汇量是不同的,之前讲到的RNN、LSTM、GRU【人工智能学习】【十一】循环神经网络进阶里的输出要么是多对多、要么多对一。参考【人工智能学习】【六】循环神经网络里的图。比如翻译“我我是中国人”——>“I am Chinese”,就会把5个字符翻译成3个词,这种前后不等长的问题是机器翻译要解决的问题。下面
本文主要介绍了用 pytorch 实现Seq2Seq with attention 机器翻译任务,基于我之前写的 pytorch 实现简单的 Seq2Seq 机器翻译任务 。算法理论可以阅读论文“NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE”,也可以参考 我写的论文笔记 。i
转载 8月前
34阅读
关于翻译类app很多,那么在众多的翻译类app中,哪些可以值得一试,通过组员们以下分析,你讲知道一二。 组员A谷歌翻译:它的工作原理Google 翻译生成译文时,会在数百万篇文档中查找各种模式,以便为您决定最佳翻译。Google 翻译通过在经过人工翻译的文档中检测各种模式,进行合理的猜测,然后得出适当的翻译。这种在大量文本中查找各种范例的过程称为“统计机器翻译”。由于译文是由机器生成的,
最近我在做Natural Language Generating的项目,接触到了BLEU这个指标,虽然知道它衡量的是机器翻译的效果,也在一些文献的experiment的部分看到过该指标,但我实际上经常会略去阅读实验效果的部分(纯粹感觉不如理论部分激动人心哈哈哈),现在轮到自己做项目了,下定决心要搞懂这个指标到底在干嘛。不足之处还是希望大家能够指正。同时也欢迎大家转载我的这篇blog 原创不易还请注
一、理论知识Seq2Seq模型的基本思想:使用一个循环神经网络读取输入句子,将这个句子的信息压缩到一个固定维度的编码中;再使用另一个循环神经网络读取这个编码,将其“解压”为目标语言的一个句子。这两个循环神经网络分别称为编码器(Encoder)和解码器(Decoder),所以也称为 encoder-decoder 模型。解码器部分的结构与语言模型几乎完全相同:输入为单词的词向量,输出为softmax
 第一部分:我们先来看看机器翻译是怎么被玩坏的吧!PS: 这个梗真的不是我黑谁!我也是从PPT上面看到的,觉得这个例子很不错.....话说回来,在机器翻译的领域,有很多难点。比如,语言的复杂程度,上下文的关联等等。想想看,同样是汉语,山东大汉和陕西小哥以及东北姑娘说出来的都是不一样的;再想想汉语中的博大精深,同样一段话,上下文不同表达的含义也是不一样的
  • 1
  • 2
  • 3
  • 4
  • 5