本文翻译自http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html,大概介绍下反向传播的基本原
目录MBR和GPTMBR的局限性GPT的优势主分区、扩展分区和逻辑分区挂接卷Legacy、UEFI引导和GRU
http://iamtrask.github.io/2015/07/12/basic-python-network/
摘要模型的主要部分是一个循环神经网络(一个LSTM),它把粗糙的对话历史直接映射到系统的行动分布,LSTM自动从对话历史推理,也就释放了开发者人工的编辑对话状态,然后开发者可以提供表示商业规则的软件和到一个合
http://www.asimovinstitute.org/neural-network-zoo/
def custom_net(cell, inputs, init_state, timesteps, time_major=False, scope='custom_net_0'): # convert to time major format if not time_major: inputs_tm = tf.transpose(inputs, [1, 0, -1
def collect_final_step_of_lstm(lstm_representation, lengths): # lstm_representation: [batch_size, passsage_length, dim] # lengths: [batch_size] lengths = tf.maximum(lengths, tf.zeros_like(len
以往理解的全连接神经网络的作用,是个memory,是用来分类,而近期发现,全连接神经网络其实是学到了 L层每个输入节点 对 L+1层每个输出节点 的加权求和贡献比,每个边是一个权重也就是一个输入节点到一个输出节点的贡献其实就是attention回想transformer里的K、V、Q,是可以把attention matrix看成全连接层的,[batch,seq_len1,seq_len2]
class SwitchableDropoutWrapper(DropoutWrapper): def __init__(self, cell, is_train, input
http://jalammar.github.io/illustrated-gpt2/
# -*- coding: utf-8 -*-import jiebaimport tensorflow as tfdef prepareTestData(): en(
http://colah.github.io/posts/2015-08-Understanding-LSTMs/