一. 什么是TaoTao,在英文中的意思是“The ultimate principle of universe”,即“道”,它是宇宙的终极奥义。“道生一,一生二,二生三,三生无穷。” ——《道德经》Tao同时也是我用Go语言开发的一个异步的TCP服务器框架(TCP Asynchronous Go server FramewOrk),秉承Go语言“Less is more”的极简主义哲学
1.算法描述广义回归神经网络是径向基神经网络的一种,GRNN具有很强的非线性映射能力和学习速度,比RBF具有更强的优势,网络最后普收敛于样本量集聚较多的优化回归,样本数据少时,预测效果很好,还可以处理不稳定数据。虽然GRNN看起来没有径向基精准,但实际在分类和拟合上,特别是数据精准度比较差的时候有着很大的优势。 GRNN是RBF的一种改进,结构相似。区别就在于多了一层求和层,而去掉了隐含
转载 2023-08-12 19:32:39
177阅读
1. 统计语言模型 (statistical model of language)统计语言模型中,把一段包含T个词的语料表示为w_t 表示第t个词,统计每个词在前面n个词出现的条件下的概率,用一幅图来表达就是:应用这个模型的时候,为了降低复杂度,基于马尔科夫假设(Markov Assumption):下一个词的出现仅依赖于它前面的一个或几个词,上面的公式可以近似为:上面那张图就
前言沉寂了这么久,原本说发布一个go语言无框架建站教程,结果发现由于这一年没怎么看go语言go的工程模式貌似有了新的变化,再加上联系了导师,导师让我学习神经网络的知识,所以索性先把go语言建站的日程推后,先行学习神经网络再说。一如既往,我的目标仍然是让你看了之后就能和别人讲。今天,就先看看神经网络的基本概念,对它有一个初步的了解吧。(前几篇可能是理论知识多一点,后面再实操)什么是神经网络?这里不
GRU介绍上篇文章提到了RNN(循环神经网络)的变体LSTM(长短期记忆网络),现在说一下它们的另一个变体GRU(Gate Recurrent Unit)——门控循环单元。虽然LSTM能够解决循环神经网络因长期依赖带来的梯度消失和梯度爆炸问题,但是在LSTM中引入了三个门函数:输入门、遗忘门和输出门来控制输入值、记忆值和输出值,参数较多,训练起来比较困难。而在GRU模型中只有两个门:分别是更新门和
我的Go+语言初体验——Go+语言构建神经网络实战手写数字识别0. 前言1. 神经网络相关概念2. 构建神经网络实战手写数字识别2.1 构建神经网络2.1.1 节点计算2.1.2 激活函数2.1.3 网络架构2.2 读取手写数字MNIST数据集2.3 训练神经网络2.3.1 前向计算2.3.2 反向传播2.4 评估神经网络3. 程序运行后记 0. 前言看了官方文档,发现 Go+ 完全兼容 Go
python和go比较: 那么,能不能结合两种语言的优势,采用混合框架呢? 答案是可以的, 混合框架的优势: 结合两种语言的优点,既具有Python语言的多类库、多应用场景的优势,又兼具Go 语言的支持高并发、运行高效的特点。 1)支持传输超大附件(1G以上); 2)支持数据库读写分离; 3)支持人工智能算法,特别是深度学习算法。 深度学习是机器学习中一种基于对数据进行表征学习的方法。深度学习又可
1.Beego框架简述beego简介beego 是一个快速开发 Go 应用的 HTTP 框架,他可以用来快速开发 API、Web 及后端服务等各种应用,是一个 RESTful 的框架,主要设计灵感来源于 tornado、sinatra 和 flask 这三个框架,但是结合了 Go 本身的一些特性(interface、struct 嵌入等)而设计的一个框架。beego 的架构beego 的整体设计架
转载 2024-01-21 00:47:00
100阅读
8.神经网络和深度学习8.1神经网络的术语 节点、感知器或神经元:神经网络的基本组成部分。每个节点或神经元接收输入数据并对数据执行操作。 执行完操作后,该节点或神经元可能会或不会传递操作到下一个节点/神经元 激活:与操作节点相关的输出或者值 激活函数:将节点输入转换成输出或激活操作的函数 权重或偏差:这些值定义了激活函数中输入和输出数据之间的关系 输入层:神经网络的输入层包含一系列节点,用于接收神
转载 2023-09-18 15:58:11
229阅读
文章目录1 下载代码2 读readme.md2.1 所需环境注意事项2.2 文件下载3 预测阶段3.1 解决问题1 写在前面:在github上面学习代码是研究生必备技能,本篇博客就以学习Siamese Network(pytorch) 为例,分享如何在github上学习代码!首先介绍一下,这个博主bubbliiiing在github上面分享了很多自己的代码,非常nice!大家也要养成学习别人的知
转载 2023-09-07 13:23:08
134阅读
1 引言¶ GoogLeNet是在2014年由Google团队在论文《Going deeper with convolutions》中提出的一个卷积神经网络算法,并成功斩获当年的ImageNet大赛的冠军(上篇博客中的VGG网络获得第二名)。与VGG网络相比,GoogLeNet对网络结构做出了根据创新性的大胆改变,这些改变主要表现在以下几个方面:(1)引入了Inception结构(融合不同
转载 2023-12-20 06:27:55
65阅读
0. 背景2023年年初,我们很可能是见证了一次新工业革命的起点,也可能是见证了AGI(Artificial general intelligence,通用人工智能)[1]孕育的开始。ChatGPT应用以及后续GPT-4大模型的出现,其震撼程度远超当年AlphaGo战胜人类顶尖围棋选手[2]。相对于AlphaGo在一个狭窄领域的建树,ChatGPT则是以摧枯拉朽之势横扫几乎所有脑力劳动行业。如今大
神经网络GNN学习笔记:图注意力网络GAT图注意力网络简介注意力机制是什么?图注意力层(Graph Attentional Layer)多头图注意力层从GNN到GCN再到GAT参考资料 图注意力网络(Graph Attention Networks, GAT),处理的是图结构数据。它通过注意力机制(Attention Mechanism)来对邻居节点做聚合操作,实现了对不同邻居权重的自适应分配
在底层使用操作系统的多路复用IO,在协程使用阻塞模型。epoll抽象层用于抽象linux,windows,mac下的网络多路复用。netpollinit()->epoll_create()。新建epoll,拿到文件描述符,新建一个pipe用于中断epoll,有管道数据到达事件注册到epoll中。epoll_ctl()->netpollopen()(监听事件)。传入socket的fd,
LSTM和GRU的基本结构循环神经网络 RNN 是一种很重要的网络结构模型,通过每个时刻利用当前的输入以及之前的输出,在同一个单元产生当前时刻的输出,从而可以用来处理具有一定时序的问题,比如语音信号处理,机器翻译,股票走势等等。RNN的基本单元如下: 左边表示RNN的R,即循环调用自身,而右边是RNN的展开形式,unrolled form,可以看成一个复制了很多个同样copy的链状结构的时序
转载 2024-01-28 01:14:19
8阅读
神经网络语言模型(NNLM)基本原理和实践本文参照了《深度学习原理与Pytorch实战》和《Python自然语言处理实战核心技术与算法》中的部分代码和原理。1 文本向量化概述对于常规的文本,计算机是无法直接处理的,需要我们将文本数据转换成计算机可以进行处理的形式。在NLP领域,文本的向量化是一项十分重要和基础的工作。所谓的文本向量化,就是将文本表示成一系列能够表示文本语义的向量。在一般的文本中,能
文章目录背景及应用基础及计算卷积池化感受野卷积神经网络的定义bvbCNN在pytorch中的实现**卷积**:**池化**:标准化数据预处理Batch Normalization有名的卷积网络结构AlexNetpytorch实现**VGG**pytorch实现GoogLeNetpytorch实现ResNetpytorch实现DenseNetpytorch实现卷积神经网络训练技巧数据增强学习率衰减
转载 2023-11-20 09:03:01
175阅读
1. GoogLeNet1.1 概述1.一般来说提升网络性能最直接的方案是增加网络的深度(层次)和宽度(神经元数量),但这会存在以下一些问题:a. 参数太多,但训练数据集有限,容易产生过拟合; b. 网络越大,参数越多,计算复杂度增大,难以应用; c. 网络越深,容易产生梯度弥散(即梯度逐步消失),无法优化;理论上减少参数一个办法就是采用稀疏策略即用部分连接代替全连接,但在实际上由于硬件优
转载 2023-12-15 11:04:30
70阅读
引言:卷积神经网络作为CV任务的常规网络,不论是优化网络特征工程还是优化任务,总是离不开网络结构,因此要对CNN架构发展进行了解。从LeNet奠定了CNN的基本构造后,经历了加深网络、加宽网络、注意力机制、精简网络网络架构搜索这样的阶段。本博文对网络的发展进行极简地整理,主要列出了提纲,需要结合参考的博文来看。 引言:卷积神经网络作为CV任务的常规网络
概要本篇文章的重点就是主要介绍GoogLeNet的网络架构,这个网络架构于2014年由Google团队提出。同时GoogLeNet也在经历了从v1、v2、v3、v4几个版本的改进过程。由于内容较多,因此将我也将在之后几篇博客中进行详细叙述。在本篇博客中主要将介绍GoogLeNet v1的网络架构。一、背景与动机在2012年,AlexNet在ImageNet图像分类竞赛中获得了冠军,这也使得深度学习
  • 1
  • 2
  • 3
  • 4
  • 5