热门 最新 精选 话题 上榜
CBCGPTreeCtrlEx使用
原创 2022-07-23 01:03:53
109阅读
BCG 使用之CBCGPTreeCtrlEx控件
本文翻译自http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html,大概介绍下反向传播的基本原
翻译 2022-07-22 16:41:02
682阅读
使用反向传播算法(back propagation)训练多层神经网络
The original article is published on Nervana site: Acc
原创 2022-07-22 14:27:32
261阅读
技术 | 用二进制算法加速神经网络
反向传播算法(Backpropagation)是目前用来训练人工神经网络(Artificial Neural
原创 2022-07-22 14:23:13
294阅读
卷积神经网络的反向传播
神经网络也许是计算机计算的将来,一个了解它的好方法是用一个它可以解决的难题来说明。假设给出 500 个字符的
原创 2022-07-22 14:07:10
242阅读
神经网络介绍—利用反向传播算法的模式学习
研究 CNN 的运行机理是当今一个热门话题。目前有三种主流观点:优化、近似和信号。
转载 2022-07-22 14:06:05
53阅读
解读 | 如何从信号分析角度理解卷积神经网络的复杂机制?
吴立德老师亲自讲解前馈神经网络和BP算法,让初学者对基础更加了解,对以后网络的改建和创新打下基础,值得好好学
原创 2022-07-22 10:40:23
184阅读
前馈神经网络和BP算法简单教程
神经网络分类:机器学习的四要素讨论:线性模型与广义线性模型对于部分数据来说,其本身就是稀疏,可以通过线性模型
原创 2022-07-22 10:40:14
789阅读
经典的全连接前馈神经网络与BP
什么是类脑计算?一般地说,类脑计算是指借鉴大脑中进行信息处理的基本规律,在硬件实现与软件算法等多个层面,对于
原创 2022-07-22 10:35:03
28阅读
神经网络机制中的脑科学原理
深度学习最大的贡献,个人认为就是表征学习(representation learning),通过端到端的训练
原创 2022-07-22 10:34:25
167阅读
非神经网络的深度模型
注:该篇幅参考斯坦福大学的教程,有兴趣的朋友可以去阅读。卷积神经网络(CNN)卷积神经网络和前几次介绍的神经
转载 2022-07-22 10:32:35
270阅读
每日一学——卷积神经网络
什么是神经网络?一开始,我将解释一种被称为“感知器”的人工神经元。感知器在20世纪五、六十年代由科学家 Fr
转载 2022-07-22 10:30:45
59阅读
每日一学——神经网络(上)
今天将介绍使用小波变换和脉冲耦合神经网络来对多模态图像进行融合。​
原创 2022-07-21 12:55:33
62阅读
医学图像处理案例(十六)——基于小波变换和脉冲耦合神经网络的图像融合
今天将介绍使用小波变换和自适应脉冲耦合神经网络来对多模态图像进行融合。
原创 2022-07-21 12:55:21
65阅读
医学图像处理案例(十七)——基于小波变换和自适应脉冲耦合神经网络的图像融合
前面已经介绍了很多TensorFlow的基础知识了,我们从现在开始利用它来进行Mnist手写体识别应用。我们采用卷积神经网络来实现分类。
原创 2022-07-21 12:49:32
133阅读
Tensorflow入门教程(十二)——用Tensorflow构建神经网络实现手写数字分类
目录MBR和GPTMBR的局限性GPT的优势主分区、扩展分区和逻辑分区挂接卷Legacy、UEFI引导和GRU
原创 2022-07-21 08:40:34
1269阅读
硬盘分区形式(MBR、GPT)、系统引导、文件系统、Inode和Block
http://iamtrask.github.io/2015/07/12/basic-python-network/
翻译 2022-07-19 19:50:45
104阅读
摘要模型的主要部分是一个循环神经网络(一个LSTM),它把粗糙的对话历史直接映射到系统的行动分布,LSTM自动从对话历史推理,也就释放了开发者人工的编辑对话状态,然后开发者可以提供表示商业规则的软件和到一个合
翻译 2022-07-19 19:48:46
89阅读
End-to-end LSTM-based dialog control optimized with supervised and reinforcement learning
conv1_weights是[5,5,1,32] conv2_weights是[5,5,32,64]
原创 2022-07-19 12:21:34
207阅读
CNN 卷积神经网络 代码实例+图
两组filter,每组3个共6个,输出是两组的结果
原创 2022-07-19 12:21:10
166阅读
CNN 卷积神经网络 二维卷积
http://www.asimovinstitute.org/neural-network-zoo/
转载 2022-07-19 12:19:40
67阅读
神经网络“动物园”
def custom_net(cell, inputs, init_state, timesteps, time_major=False, scope='custom_net_0'): # convert to time major format if not time_major: inputs_tm = tf.transpose(inputs, [1, 0, -1
原创 2022-07-19 12:18:19
48阅读
def collect_final_step_of_lstm(lstm_representation, lengths): # lstm_representation: [batch_size, passsage_length, dim] # lengths: [batch_size] lengths = tf.maximum(lengths, tf.zeros_like(len
原创 2022-07-19 12:08:40
28阅读
上图为LSTMcell, 向上指的箭头h_t是output, 向右指的箭头h_t和C_t是state, 对于上图的GRU output和
原创 2022-07-19 11:59:36
47阅读
LSTM GRU tensorflow代码 和 原理图中的箭头 的对应关系
以往理解的全连接神经网络的作用,是个memory,是用来分类,而近期发现,全连接神经网络其实是学到了 L层每个输入节点 对 L+1层每个输出节点 的加权求和贡献比,每个边是一个权重也就是一个输入节点到一个输出节点的贡献其实就是attention回想transformer里的K、V、Q,是可以把attention matrix看成全连接层的,​​​[batch,seq_len1,seq_len2]
原创 2022-07-19 11:58:45
111阅读
通过理解全连接神经网络 理解了attention
class SwitchableDropoutWrapper(DropoutWrapper): def __init__(self, cell, is_train, input
j
原创 2022-07-19 11:58:29
41阅读
通过阅读 github.com
原创 2022-07-19 11:56:32
39阅读
http://jalammar.github.io/illustrated-gpt2/
转载 2022-07-19 11:55:07
533阅读
# -*- coding: utf-8 -*-import jiebaimport tensorflow as tfdef prepareTestData(): en(
原创 2022-07-19 11:52:29
49阅读
http://colah.github.io/posts/2015-08-Understanding-LSTMs/
转载 2022-07-19 11:52:19
37阅读