一、算法原理k近邻法(k-nearest neighbor,k-NN)是一种基本分类与回归方法。本书只讨论分类问题中的k近邻法。k近邻法的输入为实例的特征向量,对应于特征空间的点;输出为实例的类别,可以取多类。k近邻法假设给定一个训练数据集,其中的实例类别已定。分类时,对新的实例,根据其k个最近邻的训练实例的类别,通过多数表决等方式进行预测。k近邻法不具有显式的学习过程。k近邻法实际上利用训练数据
文章目录一、什么是knn算法二、算法原理三、通用步骤四、简单应用 一、什么是knn算法knn算法实际上是利用训练数据集对特征向量空间进行划分,并作为其分类的模型。其输入是实例的特征向量,输出为实例的类别。寻找最近的k个数据,推测新数据的分类。二、算法原理 对于上面的这个散点图,已知的点是分布在一个二维空间的,当然,在实际生活中,情况会变得复杂,可能是多维的。这个例子表示的是肿瘤病人的相关信息,横
转载
2023-08-23 15:57:21
312阅读
前言在机器学习中,经常需要使用距离和相似性计算的公式,在做分类时,常常需要计算不同样本之间的相似性度量(Similarity Measurement),计算这个度量,我们通常采用的方法是计算样本之间的“距离(Distance)”。比如利用k-means进行聚类时,判断个体所属的类别,就需要使用距离计算公式得到样本距离簇心的距离,利用kNN进行分类时,也是计算个体与已知类别之间的相似性,从而判断个体
在做分类时常常需要估算不同样本之间的相似性,通常采用的方法就是计算样本间的距离。常用的有:欧氏距离:源于欧式空间中两点的距离公式,np.outer(计算内积)曼哈顿距离(城市街区距离)切比雪夫距离:国际象棋 闵可夫斯基距离:闵氏距离不是一种距离,而是一组距离的定义两个n维变量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的闵可夫斯基距离定义为: &nbs
转载
2024-05-17 13:42:25
101阅读
# coding: utf-8
import collections
import numpy as np
import os
from sklearn.neighbors import NearestNeighbors
def cos(vector1,vector2):
dot_product = 0.0;
normA = 0.0;
normB = 0.0;
原创
2023-05-31 10:46:06
195阅读
要计算文本的相似度,要解决两个问题:首先,需要选择一个文本的表示方式。其次,需要选择一个衡量文本的相似度的距离度量。文本的表示自然语言理解的问题要转化为机器学习的问题,第一步肯定是要找一种方法把这些文本符号数学化。词向量是用一个向量来表示某个词的方法。下面介绍几种常见的词向量。SOW 词集模型忽略文本词序、语法和句法,仅仅记录某个词是否在文本中出现。具体地,根据语料库获得一个单词集合,集合中保存着
1. 使用simhash计算文本相似度2. 使用余弦相似度计算文本相似度3. 使用编辑距离计算文本相似度4. jaccard系数计算文本相似度4. jaccard系数计算文本相似度4.1 jaccard系数jaccard系数反映了两个向量(元素取值为0或1)间的关系。即对于和,定义: = 中元素值为0且中元素值为0的个数 = 中元素值为1且中元素值为0的个数 = 中元素值为0且中元素值为1的个数
转载
2024-08-29 12:37:57
243阅读
1. 相似度模型的应用场景简单的说,相似度模型的应用场景就是,需要找到和某个实体相似的其他实体。比如:(1)商铺选址:某公司要在新城市开新的店铺,需要选址,可以使用相似度模型,找到和现有市场中表现好的商铺地址相似的地点;(2)广告宣传:其实和商铺选址类似,要选择一个好的宣传地点,可以使用相似度模型,找到和现有最好的宣传地点最相似的地点;(3)个性化推荐:这是现在互联网领域,尤其是电子商务领域应用很
转载
2024-03-25 11:07:11
229阅读
能干什么? 文章去重,语句去重,提取关键词(文章摘要,页面指纹),图片识别,语音识别想要做一个相似度,最重要的是什么? 必须得到一个度量:计算个体之间的相似程度(分数,0-1之间,0代表完全不同,一代表完全一样) 相似度值越小,距离越大,相似度值越大,距离越小 两方面考虑: 文本角度 语义角度 例如:这个菜真好吃 这个菜真难吃  
1.摘要 该方法从人脸识别的效果影响因素出发,从理论上推导出人脸样本类间相似度分布与人脸图像质量高度相关,利用类内相似度分布和类间相似度分布之间的Wasserstein距离生成人脸图像质量伪标签。然后,利用这些质量伪标签进行无监督训练人脸质量回归网络,从而获得一个质量评估模型。大量实验表明,在各大人脸识别的基准数据集上,提出的SDD-FIQA方法在不同的人脸识别系统下,精度和泛化能力都达到目前最优
转载
2024-05-26 16:38:21
115阅读
前言余弦相似度,又称为余弦相似性,是通过计算两个向量的夹角余弦值来评估他们的相似度。余弦相似度将向量根据坐标值,绘制到向量空间中。用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小。余弦值越接近1,就表明夹角越接近0度,也就是两个向量越相似,反之越接近0就表示两个向量相似度越低,这就叫"余弦相似性"。正文重温余弦定理先简单的重温一下高中数学知识,余弦定理 这个公式大
转载
2024-03-22 13:55:54
103阅读
一、KNN算法简介: 用一句通俗易懂的话来形容KNN算法,便是:“近朱者赤,近墨者黑”。为什么这么说呢?看看它的的算法原理吧。 算法原理:计算测试样本与每个训练样本的距离(距离计算方法见下文),取前k个距离最小的训练样本,最后选择这k个样本中出现最多的分类,作为测试样本的分类。如图所示,绿色的为测试样本,当k取3时,该样本就属于红色类;当k取5时,就属于蓝色类了。所以k值的选择很大程度影响着该算法
转载
2024-03-19 17:00:40
118阅读
1.K-Means 和 KNN 算法的区别首先,这两个算法解决的是数据挖掘中的两类问题。K-Means 是聚类算法,KNN 是分类算法。其次,这两个算法分别是两种不同的学习方式。K-Means 是非监督学习,也就是不需要事先给出分类标签,而 KNN 是有监督学习,需要我们给出训练数据的分类标识。最后,K 值的含义不同。K-Means 中的 K 值代表 K 类。KNN 中的 K 值代表 K 个最接近
如果想全面了解聚类算法并对其进行区别和比较的话,最好能把聚类的具体算法放在整个聚类分析的语境中理解。聚类分析其实很简单,粗略看待就一下2个环节。1、相似性衡量(similarity measurement)相似性衡量又可以细分为直接法和间接法:直接法是直接求取input data的相似性,间接法是求取data中提取出的features的相似性。但无论是求data还是feature的相似性,方法都是
模板匹配最近准备把学过的一些知识整理写成博客,加深印象。 模板匹配是一种最原始、最基本的模式识别方法,研究某一特定对象物的图案位于图像的什么地方,进而识别对象物,这就是一个匹配问题。它是图像处理中最基本、最常用的匹配方法。模板匹配具有自身的局限性,主要表现在它只能进行平行移动,若原图像中的匹配目标发生旋转或大小变化,该算法无效。普通的模板匹配方法属于暴力搜索法,通过将模板图像不断在搜索图上移动,计
转载
2023-10-28 11:53:08
177阅读
文章目录相似度计算方法1. 文本距离1.1 编辑距离(Edit Distance)1.2 最长公共子串、最长公共子序列(Long Common Subsequence,LCS)1.3 句向量表示(Word Averaging Model,WAM)1.4 WMD1.5 BM252. 统计指标2.1 Cosine Similarity2.2 Jaccard Similarity2.3 Pearson
转载
2024-04-26 14:57:21
135阅读
我们在比较事物时,往往会用到“不同”,“一样”,“相似”等词语,这些词语背后都涉及到一个动作——双方的比较。只有通过比较才能得出结论,究竟是相同还是不同。但是万物真的有这么极端的区分吗?在我看来不是的,生活中通过“相似度”这词来描述可能会更加准确。比如男人和女人,虽然生理器官和可能思想有些不同,但也有相同的地方,那就是都是人,就是说相似度不为0;比如石头与小草,它们对于虚拟类都是一种实体类,相似度
转载
2024-08-03 15:51:43
203阅读
k近邻:两个样本足够相似的话就有更高的概率属于同一个类别,看和它最相似的k个样本中那个类别最多 对KNN来说训练集就是模型 寻找超参数:领域知识、经验数值、实验搜索距离 p=1,2,3…KNN中距离的应用由此引入距离权重,权重为距离的倒数,这也是一种超参数weights=‘uniform’ ‘distance’ 
这里主要面向初学者介绍句子相似度目前主流的研究方向。从词到句子,这是目前中文相似度计算的主要思想。而由这个-思想引申出来的算法却非常多,这里面向初学者介绍比较容易实现的方法。这里要介绍的是二分法计算句子相似度。这个算法实现简单,思路清晰由此出现的技术分类变化万千,主要的变化是分组,也成为分集合。二分法的思想是:集合一和集合二是两个词的集合,集合一的每一个词与集合二的每一个词求相似度,找出最大的一个
转载
2023-11-10 16:56:25
152阅读
1. 文本相似度计算-文本向量化2. 文本相似度计算-距离的度量3. 文本相似度计算-DSSM算法4. 文本相似度计算-CNN-DSSM算法1. 前言最近在学习文本相似度的计算,前面两篇文章分别介绍了文本的向量化和文本的距离度量,这两篇文章的思路主要在机器学习的框架下面,本文准备换一个思路,从深度学习的角度来处理文本相似度的问题。本文介绍DSSM(Deep Structured Semantic
转载
2023-12-20 22:35:50
132阅读