# 使用PyTorch实现LDA降维
在数据科学和机器学习领域,降维是一个重要的过程,可以帮助我们更好地理解和处理数据。在各种降维技术中,线性判别分析(LDA)是一种流行的方法,特别是在处理分类问题时。本文将介绍如何使用PyTorch实现LDA降维,并提供一个实际的示例,以帮助您更好地理解这一技术的应用。
## 什么是LDA?
LDA(Linear Discriminant Analysis            
                
         
            
            
            
            Hello 大家好,我是一名新来的金融领域打工人,日常分享一些python知识,都是自己在学习生活中遇到的一些问题,分享给大家,希望对大家有一定的帮助!让机器帮助我们在海量的文本中快速找到关键信息,这种技术称为——话题建模(topic modeling)。话题建模的方法有许多种,潜在语义索引(LSI),概率潜在语义分析(pLSA),潜狄利克雷分布(LDA)等等方法。在我们进行话题建模之前先准备好一            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-10-03 07:25:31
                            
                                77阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            # 如何在PyTorch中实现LDA降维
## 一、整体流程
下面是在PyTorch中实现LDA降维的步骤:
```mermaid
journey
    title PyTorch中实现LDA降维步骤
    section 准备数据
    section 计算类内散度矩阵和类间散度矩阵
    section 计算特征值和特征向量
    section 选择前k个特征向量构建投影矩阵            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-06-27 05:53:42
                            
                                51阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            为什么要用LDA前面的博客提到PCA是常用的有效的数据降维的方法,与之相同的是LDA也是一种将数据降维的方法。PCA已经是一种表现很好的数据降维的方法,那为什么还要有LDA呢?下面我们就来回答这个问题?  PCA是一种无监督的数据降维方法,与之不同的是LDA是一种有监督的数据降维方法。我们知道即使在训练样本上,我们提供了类别标签,在使用PCA模型的时候,我们是不利用类别标签的,而LDA在            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-10-26 22:01:38
                            
                                82阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            目录例子LDA降维在前几篇的文章中,大管提到了PCA降维,有小伙伴私信说在实际情况中,效果不太好。那大管今天就和大家聊一聊另一种降维的方法线性判别分析 (LDA)。它目前也是机器学习领域中比较经典而且又热门的一种算法。     还记得在PCA中是怎样做的吗?简单来说,是将数据映射到方差比较大的方向上,最后用数学公式推导出矩阵的前TopN的特征向量,这里的方差可以理解为            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-02-21 16:20:43
                            
                                85阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            LDA降维和分类 
LDA可以降维和分类 
LinearDiscriminantAnalysis(LDA): 
就是将多维的样本数据集映射到一个坐标轴上(可以是多维的(以降维作为目的)),使得样本数据可以在这个坐标轴上就可以进行分类,和最小的类内距离,投影后使样本在新的子空间有最大的类间距离即样本在该空间中有最佳的可分离性。(即用这个坐标系就可以进行样本分            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-06-26 10:20:27
                            
                                47阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            1.简介     在另一篇文章中讲了利用PCA对图片数据进行降维,这次介绍一下另一种降维方法——LDA(Linear Discriminant Analysis),即线性判别分析。跟PCA不同,LDA是一种supervised的降维方法。即我们对数据降维时需要数据的label。    LDA的原理是要找到一个投影面,使得投影后相            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-06-23 06:49:29
                            
                                111阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            文章目录线性判别分析(LDA)LDA思想总结图解LDA核心思想二类LDA算法原理LDA算法流程总结LDA和PCA区别LDA优缺点主成分分析(PCA)主成分分析(PCA)思想总结图解PCA核心思想PCA算法推理PCA算法流程总结PCA算法主要优缺点降维的必要性及目的KPCA与PCA的区别 线性判别分析(LDA)LDA思想总结 线性判别分析(Linear Discriminant Analysis,            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-24 21:00:21
                            
                                71阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            # 使用Python实现LDA降维
在数据分析和机器学习中,降维是一个非常重要的步骤。在本教程中,我们将重点介绍如何使用LDA(线性判别分析)进行降维。LDA不仅能帮助我们减少数据的维度,还能提升分类的准确性。以下是我们将要完成的步骤和代码实现。
### 1. 整体流程
为了更清晰地了解整个过程,我们可以将任务划分为以下几个步骤:
| 步骤 | 描述 |
| ---- | ---- |
|            
                
         
            
            
            
             梯度下降算法1. 梯度2. 梯度下降与梯度上升3. 梯度下降法算法详解3.1 梯度下降算法的具象解释3.2 需了解的相关概念3.3 算法缺点4. 梯度下降算法应用4.1 应用一:拟合直线4.1.1 场景分析4.1.2 解题步骤4.1.3 步骤总结4.2 应用二:MNIST数据集训练4.2.1 MNIST数据集介绍4.2.2 相关转换 1. 梯度梯度的概念在微积分里面,对多元函数的参数求∂偏导数,            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-10-14 02:00:48
                            
                                78阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
               从主观的理解上,主成分分析到底是什么?它其实是对数据在高维空间下的一个投影转换,通过一定的投影规则将原来从一个角度看到的多个维度映射成较少的维度。到底什么是映射,下面的图就可以很好地解释这个问题——正常角度看是两个半椭圆形分布的数据集,但经过旋转(映射)之后是两条线性分布数据集。LDA与PCA都是常用的降维方法,二者的区别在于:出发思想不同。PCA主要是从特征的协方差角度            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-30 01:58:49
                            
                                14阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            线性判别分析LDA原理总结</h1>
        <div class="clear"></div>
        <div class="postBody">     在主成分分析(PCA)原理总结中,我们对降维算法PCA做了总结。这里我们就对另外一种经典的降维方法线性判别分析(Linear Discriminant Analysis, 以            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-10-04 23:06:51
                            
                                104阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            1.降维原理的概述由于特征数据过于庞大,需要对数据进行降维处理,即通过某种映射方法将原始高维空间中的数据点映射到低维度的空间中(减少特征的个数),比较经典的是LDA线性判别分析(Linear Discriminant  Analysis)和PCA主成分分析。LDA线性判别分析也叫作Fisher 线性判别(FLD)(有监督问题),最初用于机器学习的分类任务,更多用于降维。降维不仅要压缩数据            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-09 22:18:18
                            
                                68阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            1.什么是LDA?LDA线性判别分析也是一种经典的降维方法,LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。这点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。LDA的思想可以用一句话概括,就是“*投影后类内方差最小,类间方差最大*”。什么意思呢? 我们要将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-05-18 15:32:20
                            
                                244阅读
                            
                                                        
                                点赞
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            1.PCA主成分分析PCA是不考虑样本类别输出的无监督降维技术,实现的是高维数据映射到低维的降维。PCA原理这个介绍的不错:线性代数矩阵性质背景:特征值表示的是矩阵在特征值对应的特征向量方向上的伸缩大小;步骤:1)组成数据矩阵def get_date():
    m_vec = np.array([0, 0, 0])
    cov_vec = np.array([[1, 0, 0], [0,            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-20 10:44:14
                            
                                0阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            函数说明 1.LDA(n_topics, max_iters, random_state)  用于构建LDA主题模型,将文本分成不同的主题 参数说明:n_topics 表示分为多少个主题, max_iters表示最大的迭代次数, random_state 表示随机种子 2. LDA.components_ 打印输入特征的权重参数,LDA主题模型:可以用于做分            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-21 14:14:47
                            
                                24阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            在现实应用中,许多学习方法都涉及距离计算,而高维空间会给距离计算带来很大的麻烦。例如当维数很高时,甚至连计算内积都很不容易。  这实际上,是所有机器学习都面临的严重障碍,这被称为“维数灾难(即样本非常洗漱,距离计算很困难)”。而缓解维数灾难的两个普遍做法是降维和特征选择。降维指的是:通过某种数学变换将原始高维属性空间转变为一个低维子空间,在这个低维的子空间中,样本密度大幅度提高,距离计算也变得很容            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-12 17:34:56
                            
                                36阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            若数据集特征十分庞大,可能会使计算任务变得繁重,在数据特征有问题时,可能会对结果造成不利影响。 因此可以用降维算法,通过某种映射方法,将原始高维空间中的数据点映射到低纬度的空间中。这里介绍LDA(有监督学习算法)。线性判别分析(Linear Discriminant Analysis,LDA),也叫作Fisher线性判别,最开始用于分类任务,但由于其对数据特征进行了降维投影,成为一种经典的降维方法            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-24 13:35:33
                            
                                67阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            前面写的PCA,LE,LDA,LLE都是以前就比较熟悉的东西,从这篇开始写的都是之前不熟悉的甚至都不知道名字的算法,然而都还很经典。疫情期间在家里看看原文,学习学习,既是算法总结又是读论文笔记。这篇来写LTSA局部切空间排列。本篇符号尽量与原文保持一致,与前面几篇有所不同。主要思路LTSA(Local Tangent Space Alignment)的基本思路是用样本点的近邻区域的切空间来表示局部            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-22 19:23:55
                            
                                243阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            特征降维方法包括:Lasso,PCA,小波分析,LDA(Linear Discriminant Analysis线性判别分析),LDA(Latent Dirichlet Allocation潜在狄利克雷分配),奇异值分解SVD,拉普拉斯特征映射,深度学习SparseAutoEncoder,局部线性嵌入LLE,等距映射Isomap,word2vec。1. LASSO通过参数缩减达到降维的目的。LAS            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-09 12:41:25
                            
                                53阅读
                            
                                                                             
                 
                
                                
                    