文章目录基本原理sklearn中的实现 基本原理AffinityPropagation按照字面意思就是亲和力传播,可见这个算法的关键就是亲和力与传播。说到传播,无外乎两件事,第一件事,传的是什么,暂且先不用管,因为名字里已经说了,传的是亲和度;第二件事,怎么传,为了解决这个问题,就必须造一条传递亲和力的通道。最直接的想法就是连接样本中所有的点,这样点与点之间就有了关联。 从而得到一个图。下面新建
转载 2023-12-21 02:33:08
79阅读
scikit-learn简称sklearn,支持包括分类,回归,降维和四大机器学习算法。还包括了特征提取,数据处理和模型评估者三大模块。一,sklearn官方文档的内容和结构1.1 sklearn官方文档的内容 库的算法主要有四:监督学习的:分类,回归,无监督学习的:,降维。常用的回归:线性、决策树、SVM、KNN 集成回归:随机森林、Adaboost、GradientBoosting、
引言最近在读西瓜书,查阅了多方资料,恶补了数值代数、统计概率和线代,总算是勉强看懂了西瓜书中的公式推导。但是知道了公式以后还是要学会应用的,几经摸索发现python下的sklearn包把机器学习中经典的算法都封装好了,因此,打算写几篇博客记录一下sklearn包下的常用学习算法的使用,防止自己以后忘了,嘿嘿。1.西瓜书中197页对“”做了详细的解释,以下为摘录:在无监督学习中,训练样本的标
文章目录1 概述1.1 无监督学习与算法1.2 sklearn中的算法2 KMeans2.1 KMeans是如何工作的2.2 簇内误差平方和2.3 KMeans算法的时间复杂度3 sklearn.cluster.KMeans3.1 重要参数n_clusters3.1.1 算法的模型评估指标3.1.1.1 当真实标签已知的时候3.1.1.2 当真实标签未知的时候:轮廓系数3.1.1.3
转载 2024-02-29 11:10:54
113阅读
背景:我们需要对多标签的问题,标签进行谱,然后看相应的结果。官方API描述:https://scikit-learn.org/stable/modules/generated/sklearn.cluster.SpectralClustering.html#sklearn.cluster.SpectralClustering目录一、安装sklearn1.1 scikit-learn概览1.2
在工程应用中,用python手写代码来从头实现一个算法的可能性非常低,这样不仅耗时耗力,还不一定能够写出构架清晰,稳定性强的模型。更多情况下,是分析采集到的数据,根据数据特征选择适合的算法,在工具包中调用算法,调整算法的参数,获取需要的信息,从而实现算法效率和效果之间的平衡。而sklearn,正是这样一个可以帮助我们高效实现算法应用的工具包。Scikit learn 也简称 sklearn,
""" 是在没有给定划分类别的情况下,根据数据相似度进行样本分组的一种方法,模型可以将 无标记的数据为多个簇,分别视为一,是一种非监督的学习算法。在商业上,可以帮助 市场分析人员从消费者库中区分出不同的消费群体,并概括出每一消费者的消费模式或消费习惯。 同时,也可以作为其它机器学习算法的一个预处理步骤,如异常值识别、连续型特征离散化等的输入是一组未被标记的样本,
转载 2024-05-12 18:15:56
117阅读
# 使用 PySpark 与 Scikit-Learn 进行聚类分析 是数据挖掘和机器学习中的一种无监督学习技术,常用于将相似的数据点归为一组。在海量数据中,如何快速有效地进行聚类分析是许多数据科学家面临的一个重要问题。PySpark 和 Scikit-Learn 是两个流行的工具,它们能够完美结合,实现高效的聚类分析。本文将介绍如何在这些工具中实施,并提供具体的代码示例。 ## 1.
原创 9月前
38阅读
作者 | 泳鱼一、简介Clustering ()是常见的unsupervised learning (无监督学习)方法,简单地说就是把相似的数据样本分到一组(簇),的过程,我们并不清楚某一是什么(通常无标签信息),需要实现的目标只是把相似的样本到一起,即只是利用样本数据本身的分布规律。算法可以大致分为传统算法以及深度算法:传统算法主要是根据原特征+基于划分/密度/层
转载 2024-04-22 20:10:30
34阅读
LeetCode高频题互联网大厂笔试题:手撕k-means算法:python代码实现 提示:本题是系列LeetCode的150道高频题,你未来遇到的互联网大厂的笔试和面试考题,基本都是从这上面改编而来的题目互联网大厂们在公司养了一大批ACM竞赛的大佬们,吃完饭就是设计考题,然后去考应聘人员,你要做的就是学基础树结构与算法,然后打通任督二脉,以应对波云诡谲的大厂笔试面试题!你要是不扎实学习数据结
# 使用Python和Scikit-learn实现均值漂移 均值漂移是一种基于密度的方法,它可以自动确定聚的数量。Scikit-learn库提供了简单易用的工具来实现均值漂移。对于刚入行的开发者,以下是实现该算法的完整流程和代码示例。 ## 流程步骤 | 步骤 | 描述 | |------|----------------
原创 8月前
41阅读
''' 凝聚层次算法:首先假定每个样本都是一个独立的,如果统计出来的数大于期望的数,则从每个样本出发寻找离自己最近的另一个样本, 与之聚集,形成更大的,同时令总数减少,不断重复以上过程,直到统计出来的数达到期望值为止。 凝聚层次算法的特点: 1.数k必须事先已知。借助某些评
简介一 切词二 去除停用词三 构建词袋空间VSMvector space model四 将单词出现的次数转化为权值TF-IDF五 用K-means算法进行六 总结简介查看百度搜索中文文本我失望的发现,网上竟然没有一个完整的关于Python实现的中文文本(乃至搜索关键词python 中文文本也是如此),网上大部分是关于文本的Kmeans的原理,Java实现,R语言实现,甚至都
文章目录基本原理sklearn中谱的构造实战 基本原理谱是一种基于图论的方法,所谓图,就是将空间中的所有点连接起来,只要这些连接中出现了一个圈,就可以称之为图。如果把这些连线加上一个权重,就叫做加权图。如果连线越长则权重越小,连线越短则权重越大,然后把权重最小的边切断,使得一个图变成两个图,便完成了一次,这就是谱算法的基本思路,而其基本流程,就是构图->切图。所以,问题来了
MeanShift 算法旨在于发现一个样本密度平滑的 blobs 。均值漂移(Mean Shift)算法是基于质心的算法,通过更新质心的候选位置,这些侯选位置通常是所选定区域内点的均值。然后,这些候选位置在后处理阶段被过滤以消除近似重复,从而形成最终质心集合。...
原创 2022-11-02 09:42:16
45阅读
SpectralClustering(谱) 是在样本之间进行关联矩阵的低维度嵌入,然后在低维空间中使用 KMeans 算法。 如果关联矩阵稀疏并且 pyamg 模块已经被安装,则这是非常有效的。 谱 需要指定簇的数量。这个算法适用于簇数量少时,在簇数量多时是不建议使用。对于两个簇,它解决了相似图形上的 归一化切割(normalised cuts)的凸松弛问题:
原创 2022-11-02 09:42:23
167阅读
The DBSCAN 算法将簇视为被低密度区域分隔的高密度区域。由于这个相当普遍的观点, DBSCAN发现的簇可以是任
原创 2022-11-02 09:45:25
316阅读
内平方和(within-cluster sum-of-squares)的标准(criterion)。该算法需要指定簇的数量。它可以很好地扩展到大量样本处在同一个空间。..
原创 2022-11-02 09:45:57
77阅读
AffinityPropagation AP是通过在样本对之间发送消息直到收敛的方式来创建。然后使用少量模范样本作为
原创 2022-11-02 09:46:00
94阅读
# 使用Python和Scikit-Learn计算精度 是无监督学习的一种常见技术,广泛应用于数据挖掘、市场细分等领域。通过将相似的对象归为同一可以帮助我们发现数据中的模式和结构。在本文中,我们将介绍如何使用Python的Scikit-Learn库来进行,并计算的精度。 ## 1. 聚类分析概述 聚类分析是一种将数据集分组的技术,其中同一组内的数据点彼此相似,而不同组
原创 9月前
86阅读
  • 1
  • 2
  • 3
  • 4
  • 5