参考:http://x-algo.cn/index.php/2016/12/22/1318/Inception v1目标人类的大脑可以看做是神经元的重复堆积,Inception网络存在的原因就是想找构造一种「基础神经元」结构。人类的神经元之间链接往往是稀疏链接,所以就是寻找「稀疏网络」的稠密表示,并希望这个稠密网络在效果上可以「接近」甚至「超越」稀疏链接的网络。1x1卷积层对特征降维,一方面可以解
转载 2024-03-12 16:22:47
75阅读
学习内容:卷积神经网络研究综述论文学习笔记一. 引言部分 二. 卷积神经网络概述(对各部分进行解释) 三. 至今为止,对CNN进行的改进与尝试 四. 训练模型的方法与开源工具 五. 实际生活中的应用 六. CNN参数设置的一些探索 七. 总结 八. 参考文献论文简介:以上,便是该篇论文的八个板块。 本文从计算机视觉的历史出发,着重介绍了CNN各部分的作用与网络合理化设置的方法,之后点明了CNN后期
 1、CNN结构演化历史图   CNN经典论文学习第一篇,卷积神经网络开山鼻祖,经典的手写体识别论文——LeNet:《Gradient-Based Learning Applied to Document Recognition》,作者包括深度学习三大巨头之一Yann Lecun,花书《深度学习》作者之一Yoshua Bengio。  原文篇幅很长,选择记录其中最重要的介绍CN
转载 2024-02-14 13:23:35
234阅读
本文主要是回顾一下一些经典的CNN网络的主要贡献。论文传送门【google团队】[2014.09]inception v1: https://arxiv.org/pdf/1409.4842.pdf [2015.02]inception v2: https://arxiv.org/pdf/1502.03167.pdf [2015.12]inception v3: https://arxiv.org/
转载 2024-08-12 12:13:36
50阅读
老师听到老师学长说到文献综述,也就是review,突然有点莫名起来,数字资源资料库里面我该如何搜索呢?好像很多人的本科论文都是瞎混混过来的,我也是,有看过期刊和一些论文,却不明白到底如何来找文献综述。 以下是我从网上找的关于文献综述运用的参考,写的不错,拿来分享一下! 1.找一篇本研究领域的文献综述(review)。 这一步很关键,要找一篇有影响的(我主要是看引用次数的高低)综述有时不是件很容
转载 2024-07-10 13:50:13
58阅读
Brief 果然二维检测上的RCNN系列会出现在三维检测上,CVPR19年上有一篇Point RCNN的paper。在上个月(19年8月8日)这篇文章就被放上了arixv上,由港中文的贾佳亚教授实验室完成,下面看看具体是怎么做的。Abstruct该方法既采用了voxel表达,又结合了原始点云的形式,是一个two-stage的方法。第一个阶段采用voxel作为数据的输入,只采用几层轻量级的卷积操作,
转载 2024-09-14 13:02:53
122阅读
Deep pyramid Convolutional Neural Networks for Text Categorization摘要:本文提出了一个低复杂度,词级别用于文本分类的深度卷积神经网络,该模型可以有效的获得文本长距离联系的表示。针对文本分类,有一些深并且复杂的模型被提出,但它都假设相当大的训练数据可以使用。随着网络的加深,计算复杂度也会提升,导致实际应用困难。并且,近期研究表明了浅层
本文介绍一种剪枝方法( Sparse Structure Selection)。1. 核心思想如图为论文中提出的网络框架。F表示残差函数。灰色的block、group和neuron表示它们是不活跃的,对应的比例因子为0,可以被修剪。 根据作者在论文中所描述的,改论文的贡献体现在以下2个方面:作者提出了一个统一的cnn模型训练和剪枝框架。特别地,通过在cnn的某些结构上引入缩放因子和相应的稀疏正则化
Fast R-CNNRCNN系列论文:目标检测:RCCN网络详解目标检测:Fast RCNN网络详解目标检测:Faster RCNN网络详解简述:RCCN存在以下几个问题: (1) 需要事先提取多个候选区域对应的图像。这一行为会占用大量的磁盘空间; (2) 针对传统的CNN来说,输入的map需要时固定尺寸的,而归一化过程中对图片产生的形变会导致图片大小改变,这对CNN的特征提取有致命的坏处; (3
论文信息: 论文代码:https://github.com/cszn/DnCNN Abstract 提出网络:DnCNNs 关键技术: Residual learning and batch normalization  残差学习和批归一化 解决问题: Gaussian denoising (nonblind and blind)  &
转载 2024-05-13 21:01:59
58阅读
动手学深度学习7.1 AlexNet试着增加迭代轮数。对比LeNet的结果有什么不同?为什么?增加迭代次数,LeNet的准确率比AlexNet低,因为复杂的网络有着更强的学习能力。LeNet AlexNet![在这里插入图片描述](AlexNet对Fashion-MNIST数据集来说可能太复杂了。尝试简化模型以加快训练速度,同时确保准确性不会显著下降。设计一个更好的模型,可以直接在图像上工作。 读
卷积网络循环网络结合-CNN+RNN1. CNN+RNN 相同点都是传统神经网络的扩展;前向计算产生结果,反向计算进行模型的更新;每层神经网络横向可以多个神经元共存,纵向可以有多层神经网络连接。不同点CNN进行空间扩展,神经元与特征卷积;RNN进行时间扩展,神经元与多个时间输出计算;RNN可以用于描述时间上连续状态的输出,有记忆功能;CNN则用于静态输出;CNN高级结构可以
【深度学习】-Imdb数据集情感分析之模型对比(3)- CNN前言【深度学习】-Imdb数据集情感分析之模型对比(2)- LSTM【深度学习】-Imdb数据集情感分析之模型对比(1)- RNN对之前内容感兴趣的朋友可以参考上面这两篇文章,接下来我要给大家介绍本篇博客的内容。之前引入的LSTM以及RNN两种模型都是一类有“记忆的”模型,即文本关系型特征模型,为了添加对比,我们引入了另一种文本结构化深
转载 2024-04-08 10:35:39
46阅读
CNN是convolutional neural network卷积神经网络。一般用来做图像处理,处理的过程如下图。 首先这个猫的图像会把像素点按照顺序录入为一个像素向量,有多少个像素点,这个向量就有多长。 第一层的时候可能会检测一些很基础的颜色或者线条。 第二层就可能检测由颜色和线条组成的图案。 第
这篇博客介绍的是深度神经网络中常用在图像处理的模型——卷积神经网络(CNN),CNN在图像分类中(如kaggle的猫狗大战)大显身手。这篇博客将带你了解图像在计算机中是如何存储的,什么是卷积,卷积神经网络的四个重要环节(局部感知、参数共享、多卷积核、池化),不会涉及复杂的公式。计算机是怎么存储图片的为了更好的理解计算机对图片的存储,我找了一个非常简单的图片,是一个385*385(像素)的jpg格式
转载 2024-08-08 22:05:49
50阅读
1 典型CNN模型 LeNet,这是最早用于数字识别的CNNAlexNet,2012 ILSVRC比赛远超第2名的CNN,比LeNet更深,用多层小卷积层叠加替换单大卷积层。ZF Net,2013 ILSVRC比赛冠军GoogLeNet,2014 ILSVRC比赛冠军VGGNet,2014 ILSVRC比赛中的模型,图像识别略差于GoogLeNet,但是在很多图像转化学习问题(比如obj
转载 2024-03-28 11:23:37
73阅读
paper链接:Rich feature hierarchies for accurate object detection and semantic segmentation目录AbstractIntroductionObject detection with R-CNNModule designRegion proposalsFeature extracti...
原创 2021-07-13 16:33:38
449阅读
期刊通常是黑白打印,曲线图图例最好采用线型标记区分,而不是颜色matlab2017汉子显示问题,MATLAB生成的图片通过VISIO添加文字且放缩至小于8或16cm长1. 常用的图片处理软件我在写论文时,常用的图片处理软件有SnagIt、Photoshop、画图、Visio等。SnagIt是非常好用的一种抓图软件,它可以抓取活动的窗口,还可以抓取任意大小的图片(这时以数字×数字的形式实时显示图片像
paper链接:Rich feature hierarchies for accurate object detection and semantic segmentation目录AbstractIntroductionObject detection with R-CNN Module designRegion proposalsFeature extractionTest-time detec
原创 2022-01-30 17:01:23
257阅读
在弄清楚InfoGAN之前,可以先理解一下变分推断目的以及在概率论中的应用与ELBO是什么,以及KL散度 。如果理解了变分推断,KL散度,ELBO,对于InfoGAN中的重要方法就可以很容易理解了。这里首先看一下简单的对数推导为方便对InfoGAN文中的公式的阅读:下面的笔记参阅:先记一下预备知识就当作复习了。条件熵公式推导:用另一个变量对原变量分类后, 原变量的不确定性就会减小, 不确
  • 1
  • 2
  • 3
  • 4
  • 5