关于SKlearn中的函数学习及关键代码部分,会持续更新(参考sklearn官方文档)一:分类、回归二:降维三:模型评估与选择四:数据预处理五:模型保存 大类小类适用问题实现文档说明重要代码一、分类、回归1.1 广义线性模型1.1.1 普通最小二乘法回归sklearn.linear_model.LinearRegressionfrom sklearn.linear_            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-29 15:07:43
                            
                                40阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            sklearn中 F1-micro 与 F1-macro区别和计算原理最近在使用sklearn做分类时候,用到metrics中的评价函数,其中有一个非常重要的评价函数是F1值,(关于这个值的原理自行google或者百度)在sklearn中的计算F1的函数为 f1_score ,其中有一个参数average用来控制F1的计算方式,今天我们就说说当参数取micro和macro时候的区别1、F1公式描述            
                
         
            
            
            
             k近邻:两个样本足够相似的话就有更高的概率属于同一个类别,看和它最相似的k个样本中那个类别最多 对KNN来说训练集就是模型 寻找超参数:领域知识、经验数值、实验搜索距离    p=1,2,3…KNN中距离的应用由此引入距离权重,权重为距离的倒数,这也是一种超参数weights=‘uniform’ ‘distance’             
                
         
            
            
            
            在scikit-learn 中,与近邻法这一大类相关的类库都在sklearn.neighbors包之中。KNN分类树的类是KNeighborsClassifier,KNN回归树的类KNeighborsRegressor。除此之外,还有KNN的扩展,即限定半径最近邻分类树的类RadiusNeighborsClassifier和限定半径最近邻回归树的类RadiusNeighborsRegre            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-09 11:34:01
                            
                                119阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            1 介绍超参数是不直接在估计器中学习的参数。 在 scikit-learn 中,它们作为参数传递给估计器类的构造函数。 需要搜索超参数空间以获得最佳交叉验证分数。scikit-learn 中提供了两种通用的参数搜索方法: 
  对于给定的值,GridSearchCV 会详尽地考虑所有参数组合RandomizedSearchCV 可以从具有指定分布的参数空间中采样给定数量的候选者。这两个工            
                
         
            
            
            
            日积月累第三周第二天。忙碌的四月啊。发现高中所学的数学全部忘光。。。一点印象也没有了。现在用到了,又要重新学习一遍了,看了一些很基础,越看越起劲。。。。数学发现也挺有意思,比起以前学习数学我觉得最大的不同是,自己学的很有意思。  1.正弦定理、三角形面积公式===2R.S△=bcsinA=absinC=acsinB.  
 余弦定理是揭示
 三角形边角关系的重要定理,直接运用它可解决一类已知三角形            
                
         
            
            
            
            余弦距离            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2022-12-06 11:13:37
                            
                                248阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            算法文章汇总        余弦距离(也称为余弦相似度): 用向量空间中两个向量夹角的余弦值 作为衡量两个个体
间差异的大小的度量。向量:多维空间中有方向的线段,如果两个向量的 方向一致,即夹角接
近零,那么这两个向量就相近 。而要确定两个向量方向是否一致,这就要用到余弦定理计算向
量的夹角。  &            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-10-12 12:19:48
                            
                                196阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            KNN算法原理详解KNN算法1.1 解决监督学习中分类问题的一般步骤1.2 什么是消极(惰性)的学习方法2 首先从一个实例讲起3 KNN分类算法入门3.1.1算法综述3.1.2算法思想3.2 KNN三要素详解3.2.1 关于距离的衡量方法3.2.2 K值的选择问题3.2.3 分类决策的准则4 算法步骤详解4.1 KNN算法的步骤4.2 算法的优缺点5 补充:KDTree5.1 构造KD树的算法5            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-25 07:12:47
                            
                                70阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            KNN算法——kd-tree、KNN莺尾花分类sklearn实现实例KNN算法——kd-tree、KNN莺尾花分类sklearn实现实例1、kd-tree2、kd-tree的构建3、kd-tree 查找最近邻4、KNN莺尾花分类sklearn实现实例 KNN算法——kd-tree、KNN莺尾花分类sklearn实现实例1、kd-treeKNN算法的重点在于找出K个最邻近的点,算法的训练过程就是将            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-07 13:36:04
                            
                                39阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            k-近邻算法也称为knn算法, 可以解决分类问题, 也可以解决回归问题.1. 算法原理k-近邻算法的核心思想是未标记样本的类别, 由距离其最近的 \(k\) 个邻居投票来决定.假设, 我们有一个已经标记的数据集, 即已经知道了数据集中每个样本所属的类别. 此时, 有一个未标记的数据样本, 我们的任务是预测出这个数据样本所属的类别. k-近邻算法的原理是, 计算待标记的数据样本和数据集中每个样本的距            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-29 22:13:12
                            
                                35阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
                   天道有轮回,苍天饶过谁!!!其实数学在我们生活当中或者是工作当中,其实用的地方非常之多,我们今天就来聊一下三角(反三角)函数在javascript中的应用。先看一下勾股定理           根据勾股定理可以得出       再看几个APIMath.pow() 平方/立方
   Math.pow(2,3) // 2的立方 
  Math.pow(2,2) // 2的平方  Math            
                
         
            
            
            
            导语:scikit-learn是Python中一个功能非常齐全的机器学习库,本篇文章将介绍如何用scikit-learn来进行kNN分类计算。不费话from sklearn import neighbors开始吧。功能详解本篇中,我们讲解的是 scikit-learn 库中的 neighbors.KNeighborsClassifier,翻译为 k 最近邻分类功能,也就是我们常说的 kNN,k-n            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-09-03 21:59:21
                            
                                40阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            Atitti knn实现的具体四个距离算法 欧氏距离、余弦距离、汉明距离、曼哈顿距离 1. Knn算法实质就是相似度的关系1 1.1. 文本相似度计算在信息检索、数据挖掘、机器翻译、文档复制检测等领域有着广泛的应用1 2. 汉明距离1 2.1. 历史及应用1 3. 曼哈顿距离2 3.1. SimHa            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2016-10-25 01:32:00
                            
                                214阅读
                            
                                                                                    
                                2评论
                            
                                                 
                 
                
                             
         
            
            
            
            Atitti knn实现的具体四个距离算法  欧氏距离、余弦距离、汉明距离、曼哈顿距离1.Knn算法实质就是相似度的关系11.1.文本相似度计算在信息检索、数据挖掘、机器翻译、文档复制检测等领域有着广泛的应用12.汉明距离12.1.历史及应用13.曼哈顿距离23.1.SimHash + 汉明距离33.2.、简单共有词4             
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2021-08-30 17:06:49
                            
                                466阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            1 背景KNN算法采用测量不同特征值之间的距离方法进来分类,思想类似成语近朱者赤近墨者黑。1.1 KNN流程最常用的度量距离方法是欧式距离,即计算测试集与待预测数据差值的平方和开方(1)。若多维度数据数值范围差异较大,需要先对所有数据进行标准化(2)或归一化(3)处理.                  &n            
                
         
            
            
            
            (目录) 欧式距离 欧式距离也称为欧几里得距离或者欧几里得度量,是一个通常采用的距离定义,它是在m维空间中两个点之间的真实距离。在二维和三维空间中的欧式距离就是两点之间的距离。 二维: x = \(\sqrt{(x_2-x_1)^2+(y_2-y_1)^2}\) $(x_2,y_2)$到原点的欧式距 ...            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2021-01-22 18:14:00
                            
                                3308阅读
                            
                                                                                    
                                2评论
                            
                                                 
                 
                
                             
         
            
            
            
            Scikit learn 也简称sklearn,是机器学习领域当中最知名的python模块之一。sklearn包含了很多机器学习的方式:Classification 分类  Regression 回归  Clustering 非监督分类  Dimensionality reduction 数据降维  Model Selection 模型选择  Preprocessing 数据与处理  使用skle            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2021-05-07 17:17:37
                            
                                366阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            记录下常用的参数,以及函数。参数说明class sklearn.mixture.GaussianMixture(n_components=1, covariance_type='full', tol=0.001, reg_covar=1e-06, max_iter=100, 
n_init=1, init_params='kmeans', weights_init=None, means_init            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-09-23 18:19:40
                            
                                77阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            1. KNN算法1.1 定义如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。1.2 距离公式两个样本的距离可以通过如下公式计算,又叫欧式距离 还有曼哈顿距离、明科夫斯基距离(欧氏距离、曼哈顿距离都是明科夫斯基距离的一种特殊情况)1.3 K值的影响K值过大,受样本不均衡的影响;K值过小,容易受异常点的影响;2. sklearn中KNN            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-09-03 12:09:47
                            
                                131阅读
                            
                                                                             
                 
                
                                
                    