1.绘图命令plot(x,y):二维绘图命令plot3(x,y,z):三维绘图命令mesh(x,y,z),surf(x,y,z):三维曲面绘图命令在进行三维曲面绘图时,经常需要用到命令:[X,Y]=meshgird(x,y),该命令主要是将向量x,y,变化为矩阵X,Y。变化的规则为:无论x,y是行向量还是列向量,X为将x变为行向量后,按行复制排列,行数等于y的元素个数,而Y是将y变为
想自己动手写一个CNN很久了,论文和代码之间的差距有一个银河系那么大。在实现两层的CNN之前,首先实现了UFLDL中与CNN有关的作业。然后参考它的代码搭建了一个一层的CNN。最后实现了一个两层的CNN,码代码花了一天,调试花了5天,我也是醉了。这里记录一下通过代码对CNN加深的理解。首先,dataset是MNIST。这里层的概念是指convolution+pooling,有些地方会把convol
转载 2024-05-07 15:24:59
60阅读
写的还算不错。最近在倒腾Matconvnet工具包,正好看见新版Matlab的神经网络工具了,一并学习了,两者很相似。这里是matlab2017a,昨天去学校网上看,貌似matlab2018也出来了哈哈,真是日新月异。关于Matlab,CUDA,VS编译器,以及GPU配置可以查看我的上一篇博文。1.前言最近需要用到卷积神经网络(CNN),在还没完全掌握cuda+caffe+TensorFlow+p
转载 2024-02-16 10:06:53
16阅读
1.前言最近需要用到卷积神经网络(CNN),在还没完全掌握cuda+caffe+TensorFlow+python这一套传统的深度学习的流程的时候,想到了matlab,自己查了一下documentation,还真的有深度学习的相关函数。所以给自己提个醒,在需要用到某个成熟的技术时先查一下matlab的帮助文档,这样会减少很多时间成本。记得机器学习的大牛Andrew NG.说过在硅谷好多人都是先用m
转载 2024-08-08 11:46:29
171阅读
前期工作:下载安装matlab和下载MatConvNet以及下载GPU相关文件和配置GPU。 具体请参见我之前的文章: 1. 深度学习 2. MatConvNet(CNN)的配置和相关实验结果,CNN学习使用 : 2. 深度学习 3. MatConvNet (CNN)的介绍和下载以及CPU和GPU的安装配置,Matlab2016 : 准备工作: 1. 打
转载 2024-04-03 12:55:21
148阅读
 核心函数: (1) function[pop]=initializega(num,bounds,eevalFN,eevalOps,options)--初始种群的生成函数 【输出参数】 pop--生成的初始种群【输入参数】num--种群中的个体数目bounds--代表变量的上下界的矩阵eevalFN--适应度函数eevalOps--传递给适应度函数的参数options
想自己动手写一个CNN很久了,论文和代码之间的差距有一个银河系那么大。在实现两层的CNN之前,首先实现了UFLDL中与CNN有关的作业。然后参考它的代码搭建了一个一层的CNN。最后实现了一个两层的CNN,码代码花了一天,调试花了5天,我也是醉了。这里记录一下通过代码对CNN加深的理解。首先,dataset是MNIST。这里层的概念是指convolution+pooling,有些地方会把convol
转载 2024-05-08 21:43:24
127阅读
中文介绍:MatConvNet是一个MATLAB工具箱,提供了计算机视觉的卷积神经网络(CNN)。简单,高效,是一个先进的可以运行和学习的CNN。许多预测训练的CNN网络可以用于图像分类,分割,面部识别和文本检测。下载官网:http://www.vlfeat.org/matconvnet/下载后无需安装,只需解压,然后在Matlab中进行配置即可。实验平台:win7 64位;Matlab R201
相关资源打包下载:   最近研究了几天深度学习的Matlab工具箱代码,发现作者给出的源码中注释实在是少得可怜,为了方便大家阅读,特对代码进行了注释,与大家分享。   在阅读Matlab工具箱代码之前,建议大家阅读几篇CNN方面的两篇经典材料,对卷积神经网络Matlab工具箱代码的理解有很大帮助。   (1)《Notes on Convolut
%%========================================================================= % 函数名称:cnnsetup % 输入参数:net,待设置的卷积神经网络;x,训练样本;y,训练样本对应标签; % 输出参数:net,初始化完成的卷积神经网络 % 主要功能:对CNN的结构进行初始化 % 算法流程:1) % 注意事项:1)isOc
?1 概述基于PCA主成分分析的BP神经网络回归预测研究是一种利用PCA降维技术和BP神经网络模型进行回归预测的方法。PCA主成分分析是一种常用的数据降维技术,它可以通过线性变换将原始数据转化为一组新的变量,这些新变量称为主成分,主成分是原始数据中方差最大的方向。通过保留主成分中的大部分方差,可以实现数据的降维,减少特征数量,同时保留原始数据的主要信息。BP神经网络是一种常用的人工神经网络模型,它
deepLearnToolbox-master是一个深度学习matlab包,里面含有很多机器学习算法,如卷积神经网络CNN,深度信念网络DBN,自动编码AutoEncoder(堆栈SAE,卷积CAE)的作者是 RasmusBerg Palm。今天给介绍deepLearnToolbox-master中的CNN部分。 DeepLearnToolbox-master中CNN内的函数: 调用关系为: 该模
MATLAB Builder for .NETR2009b MATLAB 资源 论坛目录入门指南 1MATLAB Builder for .NET是什么? 1.NET Builder怎么工作? 1创建COM组件 2不支持的MATLAB数据类型 2创建 .NET组件 2步骤 2Deployment Tool输出窗口的功能 2使用命令行方式创建.NET组件 3使用由MATLAB Builder for
MATLAB实现CNN一般会用到deepLearnToolbox-master。但是根据Git上面的说明,现在已经停止更新了,而且有很多功能也不太能够支持,具体的请大家自习看一看Git中的README。deepLearnToolbox-master是一个深度学习matlab包,里面含有很多机器学习算法,如卷积神经网络CNN,深度信念网络DBN,自动编码AutoEncoder(堆栈SAE,卷积CAE
1.前言最近需要用到卷积神经网络(CNN),在还没完全掌握cuda+caffe+TensorFlow+python这一套传统的深度学习的流程的时候,想到了matlab,自己查了一下documentation,还真的有深度学习的相关函数。所以给自己提个醒,在需要用到某个成熟的技术时先查一下matlab的帮助文档,这样会减少很多时间成本。记得机器学习的大牛Andrew NG.说过在硅谷好多人都是先用m
%%========================================================================= % 函数名称:cnnsetup % 输入参数:net,待设置的卷积神经网络;x,训练样本;y,训练样本对应标签; % 输出参数:net,初始化完成的卷积神经网络 % 主要功能:对CNN的结构进行初始化 % 算法流程:1) % 注意事项:1)isOc
首先介绍一下我在开发过程中用到的技术。(1)利用车牌颜色的对车牌进行定位。首先我们要设定蓝色的数值范围,在图片中不同的蓝色有不同的数值,只有设定了范围才可以对原图中的蓝色车牌进行定位。(2)擦除多余的蓝色更加进准的定位车牌的位置。该方法主要目的是排除在以蓝色定位时由于有其他的蓝色部分会干扰车牌的地位,未能擦除多余的颜色可能导致车牌位置不准确。(3)车牌分割算法。要划分定位车牌,然后将字符分成划分的
1 前言在上一篇Blog,我介绍了在iOS上运行CNN的一些方法。但是,一般来说,我们需要一个性能强劲的机器来跑CNN,我们只不过需要将得到的结果用于移动端。之前在Matlab使用UFLDL的代码修改后跑了手型识别的3层CNN,这里我们就考虑将Matlab转C之后移植到xcode中。Step 1:Matlab 转c首先要保证代码可以跑,可以运行,比如我这边,如下测试cnn识别手型:>>
0 系统+软件版本系统:CentOS 6.7 x64, 内核 2.6.32-573.el6.x86_64软件:Matlab R2015b(包括威锋网和东北大学ipv6下载的资源,都测试过)1 脚本运行“陷阱“1.1 未知的“陷阱”首先,这个程序在Matlab R2013a中可以完美运行,这个“陷阱“在是新安装的R2015b上才出现的。说它是“陷阱“,是因为脚本文件涉及到大量的数据处理,比如一个几百
转载 2024-06-14 10:04:35
54阅读
(一)目标检测概述 (二)目标检测算法之R-CNN (三)目标检测算法之SPPNet (四)目标检测算法之Fast R-CNN 写在最前面:https://zhuanlan.zhihu.com/p/31426458,这是某知乎大佬关于我今天所写的超级棒的文章,放在最前面,完全可以不看我的文章去看这位大佬的。当然,大佬的文章深度和精度都很足,因此文章篇幅比较长
  • 1
  • 2
  • 3
  • 4
  • 5