手机随时阅读
新人专享大礼包¥24
对于这个问题我之前查阅了各种文章写了个精简的综合版,可以看这里:神经网络中如何确定隐藏层的层数和大小(https://blog.51cto.com/Lolitann/5160316),本文主要是对当是的一个参考文章进行翻译。正文人工神经网络(ANN)的初学者可能会问一些问题。比如:要使用多少隐藏层?每个隐藏层中有多少隐藏的神经元?使用隐藏层/神经元的目的是什么?增加隐藏层/神经元的数量是否总能获得
@toc写在最前边翻译讲究:信、达、雅。要在保障意思准确的情况下传递作者的意图,并且尽量让文本优美。但是大家对我一个理工科少女的语言要求不要太高,本文只能保证在尽量通顺的情况下还原原文。注意本文的组成部分:翻译+我的注释。添加注释是因为在阅读的过程中,我感觉有的地方可能表述的并不是特别详细。对于一些真正的小白,像我一样傻的来说,可能不太好理解。正文在之前的文章中,我们讲了现代神经网络常用的一种方法
注意:本文大多采用义译,确保原文意思不变,但不保证用词和原作完全一致。:sunglasses:@toc使用正弦函数为模型添加位置信息Transformer是只基于自注意力机制的序列到序列架构。因为并行计算能力以及高性能。使得它在NLP领域中大受欢迎。现在常见的几个深度学习框架都实现了transformer,这让很多学生都能够方便使用到transformer。但是这也存在一个弊端,他会让我们忽略模型
Copyright © 2005-2022 51CTO.COM 版权所有 京ICP证060544号