信息熵、交叉熵、KL散度、JS散度、Wasserstein距离交叉熵(cross entropy)是深度学习中常用的一个概念,一般用来求目标与预测值之间的差距。以前做一些分类问题的时候,没有过多的注意,直接调用现成的库,用起来也比较方便。最近开始研究起对抗生成网络(GANs),用到了交叉熵,发现自己对交叉熵的理解有些模糊,不够深入。遂花了几天的时间从头梳理了一下相关知识点,才算透彻的理解了,特地记            
                
         
            
            
            
            交叉熵交叉熵的原理为什么使用交叉熵引出交叉熵交叉熵的实际使用 交叉熵的原理为什么使用交叉熵当我们使用sigmoid函数作为激活函数,计算损失值时所用到的函数是二次代价函数(真实值减去与测试的平方),调整权值时的快慢与激活函数的导数有关. 当损失值较大的时候,应该调整的快一些, 当损失值较小的时候,可以调整的慢一些. 但是,使用二次代价函数,并不能实现这个功能.引出交叉熵因此改变计算损失值的代价函            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-10-15 11:20:23
                            
                                106阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            # KL散度与交叉熵在PyTorch中的应用
在深度学习模型的训练中,我们常常需要衡量两个分布之间的差异,其中Kullback-Leibler (KL)散度和交叉熵是最常用的两种指标。本文将深入探讨这两者的定义、区别及其在PyTorch中的实现,并提供相应的代码示例。
## 1. KL散度与交叉熵的定义
### KL散度
KL散度是一种用于测量两个概率分布之间差异的非对称度量。给定两个概率            
                
         
            
            
            
            一、熵和互信息香农熵(Shannon entropy)用来对概率分布中不确定性总量进行量化:  也记作H(P)。换言之,一个分布的香农熵是指遵循这个分布的时间所产生的期望的信息总量。它给出了对依据概率分布P生成的符号进行编码所需的比特数在平均意义上的下界。哪些接近确定性的分布(输出几乎可以确定)...            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2021-08-13 09:48:46
                            
                                750阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            老遇到交叉熵作为损失函数的情况,于是总结一下KL散度交叉熵从KL散度(相对熵)中引出,KL散度(Kullback-Leibler Divergence)公式为:  KL散度是衡量两个分布之间的差异大小的,KL散度大于等于0,并且越接近0说明p与q这两个分布越像,当且仅当p与q相等时KL散度取0.交叉熵在机器学习的分类问题中,常以交叉熵作为损失函数,此时同样可以衡量两个分...            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2023-01-18 00:48:13
                            
                                323阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            熵:H(p)=−∑xp(x)logp(x)
交叉熵:H(p,q)=−∑xp(x)logq(x)
相对熵:KL(p∥q)=−∑xp(x)logq(x)p(x) 相对熵(relative entropy)也叫 KL 散度(KL divergence);
用来度量两分布之间的不相似性(dissimilarity);
通过交叉熵的定义,连接三者:
H(p,q)===−∑xp(x)logq(x)−            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2016-11-27 17:05:00
                            
                                236阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            相对熵(relative entropy)就是KL散度(Kullback–Leibler divergence),用于衡量两个概率分布之间的差异。 一句话总结的话:KL散度可以被用于计算代价,而在特定情况下最小化KL散度等价于最小化交叉熵。而交叉熵的运算更简单,所以用交叉熵来当做代价。 如何衡量两个            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2021-07-09 15:19:54
                            
                                2380阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            信息量 举个例子,计算机需要输入16位数,此时每种输入的概率为${\frac 1 2}^{16}$ 若已经输入16位数,此时信息已经确定,概率则为1,那么这里16位输入的信息量就是16bit 信息量:=$-\log p_i$ 描述事情由不确定变为确定的难度 信息熵 通俗来讲,就是一个系统信息量的期望 ...            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2021-10-22 10:17:00
                            
                                410阅读
                            
                                                                                    
                                2评论
                            
                                                 
                 
                
                             
         
            
            
            
            文章目录rl分类方法:交叉熵简要介绍交叉熵应用在CartPole中(代码内有简要说明)交叉熵方法在FrozenLake中的应用 rl分类方法:写在前面:交叉熵属于无模型和基于策略的在线策略方法 所有RL方法的分类方法: 1.无模型或基于模型:无模型表示该方法不构建环境或奖励的模型,直接将观察和动作连接起来(智能体获取当前观察结果并对其进行一些计算,计算结果就是他应该采取的动作)。基于模型的方法试            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-18 22:44:57
                            
                                100阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            全文共4351字,23幅图,预计阅读时间22分钟。本文被以下三份资料所启发,纯纯的致敬![Christopher Colah] -Visual Information The...            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2022-06-02 20:39:59
                            
                                354阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            在本文中,我们介绍了KL散度和交叉熵这两个概念,并比较了它们之间的异同。KL散度用于比较两个概率分布之间的差异,而交叉熵用于            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-05-13 11:35:42
                            
                                240阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            问题: 何时使用交叉熵,何时使用KL散度? 计算分布差距为啥使用KL散度而不用交叉熵,计算预测差距时为啥使用交叉            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2024-02-19 17:31:14
                            
                                686阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            信息熵 信息量和信息熵的概念最早是出现在通信理论中的,其概念最早是由信息论鼻祖香农在其经典著作《A Mathematical Theory of Communication》中提出的。如今,这些概念不仅仅是通信领域中的基础概念,也被广泛的应用到了其他的领域中,比如机器学习。 信息量用来度量一个信息的            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2022-01-14 16:46:37
                            
                                1709阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            本文从两方面进行解释:数学和编码方面。总有一个角度能让你更好理解。数学解释熵Entropy熵用于计算一个离散随机变量的信息量。对于一个概率分布X,X的熵就是它的不确定性。用大白话来说,假设你预测一个东西,有时候结果会出乎意料,熵就表示出乎意料的程度。熵越大你越不容易预测对,事情就越容易出乎意料。离散型概率分布X的熵定义为自信息的平均值:H(X)=E_{p(x)}I(x)=\sum_{x}p(x)\            
                
                    
                        
                                                            
                                                                        
                                                                推荐
                                                                                        原创
                                                                                    
                            2022-12-16 10:03:09
                            
                                632阅读
                            
                                                        
                                点赞
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
             eep learning:五十一(CNN的反向求导及练习)
  前言:  CNN作为DL中最成功的模型之一,有必要对其更进一步研究它。虽然在前面的博文Stacked CNN简单介绍中有大概介绍过CNN的使用,不过那是有个前提的:CNN中的参数必须已提前学习好。而本文的主要目的是介绍CNN参数在使用bp算法时该怎么训练,毕竟CNN中有卷积层和下采样层,虽然和MLP的bp算法本质上相同,但            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-22 12:08:30
                            
                                149阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            香农信息量I:熵H§:交叉熵H(p,q)越小,p,q越相似。相对熵(KL散度)其中p(xi)和q(xi)是两个概率分布,KL使用来计算两个信息熵之间的差值的。在判断预测是否准确的时候可以用预测值作为q(xi),p(xi)作为真实值。熵、交叉熵和相对熵关系...            
                
                    
                        
                                                            
                                                                        
                                                                                        原创
                                                                                    
                            2023-03-09 07:46:54
                            
                                452阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            全文共4351字,23幅图,预计阅读时间22分钟。本文被以下三份资料所启发,纯纯的致敬![Christopher Colah] -Visual Informa...            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2021-07-12 17:48:37
                            
                                186阅读