第二种实现
第二种实现
Transformer:编码器:多头的self-Attention + 残差 + 前馈神经网络 + 残差解码器:多头遮蔽的self-Attention + 残差 + 前馈 + 残差 + encoder-decoder Attention + 残差 encoder-decoder Attention就是一个普通的Attention是判断编码的输出C和当前翻译的一个Attention关系的。因此解码器
举报文章
请选择举报类型
补充说明
0/200
上传截图
格式支持JPEG/PNG/JPG,图片不超过1.9M