机器翻译transformer 2018-05-01 |  ML , app , nlp , translation , 2. 主流model-研究现状 , 2. NMT , transformer |  
transformer是一种不同于RNN的架构,模型同样包含 encoder 和 decoder ,但是encoder 和 decoder 抛弃 了RNN,而使用各种前馈层堆叠在一起。Encoder:    编码器是由N个完全一样的层堆叠起来的,每层又包括两个子层(sub-layer),第一个子层是multi-head self-attention mechanism
图解 Transformer 在之前的博客《图解机器翻译模型:基于注意力机制的 Seq2Seq》中,我们介绍了注意力(Attention)机制,这也是深度学习模型中一种较为常用的方法。在本篇博客中,我们将介绍一种新的模型 Transformer,一种使用注意力机制来提高模型训练速度的模型。Transformer 是在论文 Attention is All You Need 中首次
1.机器翻译概述: 使用计算机将一种自然语言转换成另一种自然语言的过程,机器翻译试图利用计算机来模拟人的翻译能力,因此他也成为人工智能的一个重要分支[1]。 2.机器翻译发展历史 开创期:(1947-1964) 1954年美国乔治敦大学与IBM公司合作,首次完成了英俄机器翻译,展示了机器翻译的可行性,拉开了机器翻译发展的序幕,随后多个国家开始对机器翻译的研究。[2] 低潮期:(1964-1975)
转载 2024-03-24 09:19:00
83阅读
机器翻译1.定义将一段文本从一种语言自动翻译为另一种语言, 用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。2.code 实现## 机器翻译定义 """ 主要是将一段文本从一种语言自动翻译成另外一种语言 输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同 """ import os os.li
最近在给自己收藏的一些本地歌曲文件手动加歌词的时候,遇到这样一句念白:It’s been a long time.Yes,ma’am. A lot of water under the bridge.我去百度查了这句词,一眼就觉得不对啊,别人说好久不见,你回一个「桥下有很多水」是什么意思 ❓ ❓ ❓不过我立马就想到,这一定是一句俗语!果不其然,我单独查了一下,才明白这句话和我们中国人说「往事如烟」
关于翻译类app很多,那么在众多的翻译类app中,哪些可以值得一试,通过组员们以下分析,你讲知道一二。 组员A谷歌翻译:它的工作原理Google 翻译生成译文时,会在数百万篇文档中查找各种模式,以便为您决定最佳翻译。Google 翻译通过在经过人工翻译的文档中检测各种模式,进行合理的猜测,然后得出适当的翻译。这种在大量文本中查找各种范例的过程称为“统计机器翻译”。由于译文是由机器生成的,
转载 2024-05-13 17:17:51
109阅读
双语评估替换分数(简称BLEU)是一种对生成语句进行评估的指标。完美匹配的得分为1.0,而完全不匹配则得分为0.0。这种评分标准是为了评估自动机器翻译系统的预测结果而开发的,具备了以下一些优点:计算速度快,计算成本低。容易理解。与具体语言无关。已被广泛采用。BLEU评分是由Kishore Papineni等人在他们2002年的论文BLEU a Method for Automatic Evalua
转载 2023-10-10 15:01:35
402阅读
一、背景知识机器翻译,Machine Translation,简称MT,是一种运用计算机将一个句子从一种语言翻译成另一种语言的技术,是自然语言处理领域中一项重要的任务。机器翻译最早可以追溯到19世纪50年代的冷战时期,其目的是实现英语和俄语的翻译,但那个时候的技术手段主要是基于规则。之后到90年代才出现了基于统计学的机器翻译技术,而在2010后乘着深度学习的风,神经网络也被大量应用于机器翻译中,并
machine translationmachine translation是机器自行进行翻译,不需要人类干预。课堂中涉及两个名词:FAHQMT(Fully Automatic High Quality Machine Translation), FAMT(Fully Automatic Machine Translation)。Human Aided Machine Machine Transl
1 简介本文主要讲机器翻译时如何更好的进行汉字分割。本文参考2008年《Optimizing Chinese Word Segmentation for Machine Translation Performance》翻译总结。基于基本的机器翻译结果分析,我们发现下面文字分割有利于机器翻译: 1)基于特征的分割,比如支持向量机、条件随机场(CRF),有非常好的表现。主要是其一致性。而上下文分割方法
不久前,一个实时翻译视频风靡网络,视频中两名分别说着英语和西班牙语的人借助Skype软件的实时翻译功能竟然实现了无障碍交流。这种之前只在科幻片中存在的场景如今已成现实,而这一切都得益于机器翻译技术。那么什么机器翻译呢?机器翻译(machine translation),又称为自动翻译,是利用计算机把一种自然语言转变为另一种自然语言的过程。机器翻译的实现方法随着科技和社会经济的快速发展,全世界的互
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 文章目录BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingAbstract1.Introduction2 Related Wor
## 使用 PyTorch 实现 Transformer 机器翻译 在这篇文章中,我们将教会你如何使用 PyTorch 来实现一个简单的 Transformer 模型,用于机器翻译。我们将从构建模型到训练和评估模型,逐步进行。 ### 流程概述 在开始之前,我们可以将整个过程划分为以下几个步骤: | 步骤 | 描述 | |------|------| | 1 | 准备数据集 | |
原创 10月前
439阅读
  提出背景:  机器翻译又称为自动翻译,是利用计算机将一种自然语言(源语言)转换成另外一种自然(目标语言)语言的过程,本质问题是如何实现两种不同语言之间的等价转换。它是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。机器翻译是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。同时,机器翻译又具有重要的实用价值。随着经济全球化及互联网的飞速发展,机器
转载 2024-08-19 16:31:38
102阅读
@[TOC](机器相关及相关技术) 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。主要特征为:输出是单词序列而不是单个单词。输出序列的长度可能与源序列的长度不同。BPE(byte pair encoding ):词表压缩NMT 系统为了能够控制计算的复杂度,有 着一个固定大小的词汇表,通常会将词汇表限制在 30k 到 80k 之间
transformer是一种不同于RNN的架构,模型同样包含 encoder 和 decoder ,但是encoder 和 decoder 抛弃 了RNN,而使用各种前馈层堆叠在一起。Encoder:    编码器是由N个完全一样的层堆叠起来的,每层又包括两个子层(sub-layer),第一个子层是multi-head self-attention mechanism
5.3序列模型与注意力机制3.6Bleu得分在机器翻译中往往对应有多种翻译,而且同样好,此时怎样评估一个机器翻译系统是一个难题。 常见的解决方法是通过BLEU得分来进行判断评价机器翻译Evaluating machine translationPapineni K. Bleu:A Method for Automatic Evaluation of Machine Translation[J].
目录1 定义2 进展2.1 规则匹配模型2.2 统计模型2.3 seq2seq模型2.3.1 beam search2.3.2 BLEU (Bilingual Evaluation Understudy)2.3.2 attention2.3.2.1 attention作用3 参考 1 定义机器翻译 (Machine Translation)是一个将源语言句子翻译成目标语言句子的过程。机器翻译的相
转载 2024-04-03 12:41:30
145阅读
google 出品, 基于 encoder-decoder 架构的 seq2seq 自然语言翻译模型. paper 见参考[1]. 创新之处是弃用 RNN,CNN 这样的结构, 采用 self-attention 与 positional-encoding 来简化结构, 加速训练, 并提升效果, 取得了 SOTA 成绩. 是后续 GPT 系列的基石之作!一. BLEU 评测指标BLEU, BiLi
  • 1
  • 2
  • 3
  • 4
  • 5