目录一、绘图函数中的参数(以plot为例1.'Color'2.'LineStyle'3. 'LineWidth'5.'MarkerIndices'6.'MarkerEdgeColor'7.'MarkerFaceColor'8.'MarkerSize'9.关于plot的输出二、查看与修改图像属性的函数1.get2.set(1)gcf(2)gca 一、绘图函数中的参数(以plot为例1.‘Color
在 深度学习中,有许多不同的深度网络结构,包括卷积 神经网络(CNN或convnet)、长短期记忆网络(LSTM)和生成对抗网络(GAN)等。 在计算机视觉领域,对卷积神经网络(简称为CNN)的研究和应用都取得了显著的成果N网络最初的诞生收到了动物视觉神经机制的启发,目前已成功用于机器视觉等领域中。 技术博客Towards Data Science最近发布了
做dl也有一段时间了,积累了一些经验,也在网上看到一些别人的经验。 为了面试,结合知乎上面的问答,我也总结了一下,欢迎大家补充。知乎 深度学习有哪些技巧?一. 初始化 有人用normal初始化cnn的参数,最后acc只能到70%多,仅仅改成xavier,acc可以到98%。二.从理解CNN网络以产生直觉去参数的角度考虑,应该使用可视化 可视化(知乎用户 杨军)1.Visualize L
转载 2024-04-07 08:42:23
81阅读
KNN算法概述kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 KNN算法不仅可以用于分类,还可以用于回归。通过找出一个样本的k个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。更有用的方法是将不同距
转载 2024-04-29 21:17:00
27阅读
写在前面1.KNN算法的重点在于三个参数的选择:K的取值、距离度量方法以及分类决策方法2.之所以要从KNN进行优化发展成KDTree是因为需要对k维空间进行一个快速检索(优化KNN检索的开销)。3.KDTree本质上还是二叉树,表示对k维空间的一个划分,其每个节点对应于k维空间划分中的一个超矩形区域。利用KDTree优化检索的过程是因为它可以省去对大部分数据的搜索过程,从而减少搜索的计算量。一.K
cnn技巧记录,好的参数不光可以加速模型收敛,而且可以有效的避免很多错误。当然在很多简单任务中可能完全随机的模型初始参数,简单的一些建议学习率以及动量都可以得到一个比较满意的结果,比如单一,简单的降质模型下的图像生成,类别简单少量的一些分类任务等,不好的初始化参数是可以应对简单任务的。但是对于复杂任务就很难了,因为初始化参数选择的不好,导致结果十分不可控。因为不好的初始化数导致结果很不可靠,
转载 2024-04-25 13:03:25
55阅读
kNN算法中 k参数被封装成n_neighbors参数之前我们都是随意的传递3,5.究竟传什么参数最好,这就涉及机器学习非常重要的问题:超参数超参数:运行学习机器学习算法之前,需要指定的参数例如kNN算法的k与超参数对应的是模型参数模型参数:算法过程中学习的参数 kNN算法只有超参数,没有模型参数机器学习工程师要做的一个就是,就是超参数因为是在算法运行前需要我们运行的参数寻找好的
目录一 更多优化算法回顾1.AdaGrad算法2.RMSProp3.Adam4.自定义优化算法二.激活函数1.Sigmoid2.Tanh3.ReLu4.Leaky-ReLU5.ELU6.maxout三.网络初始化四 批归一化五 数据增强六 其他技巧一 更多优化算法回顾随机梯度下降局部极值鞍点问题动量梯度下降问题受学习率影响很大(如果学习率设置过大,收敛很慢)每一个维度得学习率一样(a是针对全局
在前面的博客中,对鸢尾花数据集以及手写字体数据集进行了分析,knn算法对于较大的数据集也能有比较好的预测结果,但是比较困扰的问题是,对于其中的一些参数的设置,怎样才算好的呢,什么样的参数才能让这个算法更加高效呢?对此进行了如下总结。1. algorithm1.1 4种算法在建立knn模型的时候,对于搜索最近的k个点,可以采取不同的算法:暴力搜索brute 该算法会计算待测样本和样本集中所有样本的距
目录1、k近邻算法 KNN1.1、核心思想1.2、算法流程1.3、距离定义1.3、优缺点1.4、参数和模型参数2、线性回归法 Linear Regression2.1、简单线性回归2.1.1、一类机器学习算法的基本思路2.1.2、回归算法的衡量2.2、多元线性回归2.3、多项式回归 1、k近邻算法 KNNk邻近算法,或者说k最邻近(kNN,k-NearestNeighbor)分类算法是数据挖掘分
KNN算法K近邻法(k-nearst neighbors,KNN)是一种很基本的机器学习方法。它的思想是: 在训练集中数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练集中与之最为相似的前K个数据,则该测试数据对应的类别就是K个数据中出现次数最多的那个分类。kNN算法三要素: k值的选取,距离度量的方式和分类决策规则KNN算法的步骤: 1、收集数据集
转载 2023-09-15 21:58:08
129阅读
一、 引言K最近邻(k-Nearest  Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 尽管kNN算法的思想比较简单,但它仍然是一种非常重要的机器学习(或数据挖掘)算法。在2006年12月召开的 IE
转载 1月前
380阅读
play with knn1. 什么是knn1.1. 什么是knn1.2. knn适用范围2. knn实验前的准备2.1. knn的实验要点3. knnmatlab实验【使用UCI数据集】3.0. KNN函数自带用例3.1. UCI数据集3.2. knn实验计划3.3. 数据集筛选3.4. play with knn4. 总结 1. 什么是knn1.1. 什么是knn来了一个无标签的样本,找它
K-最近邻分类方法(KNN,k-nearest-neighbor classifier)是一种惰性学习法,所谓惰性就是KNN不像一些算法(比如SVM)一样在接收待分类数据前就已经根据训练数据构造好了分类模型,而是会在接受到训练数据后,只是对训练数据进行简单的存储,并不构造分类模型,在接受到待分类数据时,KNN通过计算待分类数据X与所有训练数据之间的距离,选择前K个距离X最近的数据,并将这K个距离最
转载 2024-05-07 15:42:45
444阅读
KNN 算法其实简单的说就是“物以类聚”,也就是将新的没有被分类的点分类为周围的点中大多数属于的类。它采用测量不同特征值之间的距离方法进行分类,思想很简单:如果一个样本的特征空间中最为临近(欧式距离进行判断)的K个点大都属于某一个类,那么该样本就属于这个类。这就是物以类聚的思想。当然,实际中,不同的K取值会影响到分类效果,并且在K个临近点的选择中,都不加意外的认为这K个点都是已经分类好的了,否则该
做卷积神经网路方面的研究。大抵是:                                                   &n
      以下介绍部分乃网络资料,程序注释和优化乃自己原创:        Dr Kalman 的卡尔曼滤波器。下面的描述,会涉及一些基本的概念知识,包括概率(Probability),随机变量(Random Variable),高斯或正态分配(Gaussian Distribution)还有State-space Model
如果我有一个用C语言写的函数,实现了一个功能,如一个简单的函数: double add(double x, double y) { return x + y; } 现在我想要在Matlab中使用它,比如输入: >> a = add(1.1, 2.2)
转载 6月前
20阅读
K-means方法是一种非监督学习的算法,它解决的是聚类问题。1、算法简介:K-means方法是聚类中的经典算法,数据挖掘十大经典算法之一;算法接受参数k,然后将事先输入的n个数据对象划分为k个聚类以便使得所获得的聚类满足聚类中的对象相似度较高,而不同聚类中的对象相似度较小。2、算法思想:以空间中k个点为中心进行聚类,对最靠近他们的对象归类,通过迭代的方法,逐次更新各聚类中心的值,直到得到最好的聚
一、learning rate 简述lr全称learning rate(一下简称lr),是机器学习和深度学习中最为重要的超参数之一,会影响模型训练结果的好坏,有时候甚至会直接导致整个模型无法使用。lr最直接的可观测的影响就是loss值的变化,较大的学习率会更容易收敛也更容易出现陷入局部最优解的情况,而过大的学习率会导致loss无法收敛甚至出现nan的情况;较小的学习率更容易找到全局最优解但是los
  • 1
  • 2
  • 3
  • 4
  • 5