摘要更深的神经网络更难训练。我们提出了一种残差学习框架来减轻网络训练,这些网络比以前使用的网络更深。我们明确地将层变为学习关于层输入的残差函数,而不是学习未参考的函数。我们提供了全面的经验证据说明这些残差网络很容易优化,并可以显著增加深度来提高准确性。在ImageNet数据集上我们评估了深度高达152层的残差网络——比VGG[40]深8倍但仍具有较低的复杂度。这些残差网络的集合在ImageNet测            
                
         
            
            
            
            resnet也赢下了imagenet的竞赛 在cifar-10 上训练了100到1000层的数据 cnn的主干网络 用resnet替换 在coco目标检测上也夺冠了 计算机图形学可能把图放在标题上面 在训练深的网络上,不只是过拟合,训练误差也会很高,不止是过拟合 深度太深会出现梯度爆炸或者梯度弥散 解决:初始化的时候权重不要太大也不要太小,中间加一些batch normalization,使得校验            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-30 11:04:50
                            
                                30阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            前言深度残差网络(Deep residual network, ResNet)的提出是CNN图像史上的一件里程碑事件,ResNet在2015年发表当年取得了图像分类,检测等等5项大赛第一,并又一次刷新了CNN模型在ImageNet上的历史记录。直到今天,各种最先进的模型中依然处处可见残差连接的身影,其paper引用量是CV领域第一名。ResNet的作者何恺明也因此摘得CVPR2016最佳论文奖。一            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-15 14:49:59
                            
                                149阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            作为ILSVRC15年的冠军,Kaiming大神一贯落实着不发则已,一发惊人的论文生产准则。最近静下心来仔细研究一下这篇论文,个人认为Kaiming是一个很看重问题本质的学者,他发的论文都会从问题的最本质的原因入手,比如Focal loss的提出、Faster RCNN的加速点、Mask RCNN的突破性创新等等。 ResNet也不例外,今天静下心来好好读一下这篇文章,想一想究竟为什么ResNet            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-08-01 16:48:09
                            
                                29阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
             文章目录一、介绍三、深度残差网络1、残差网络2、通过shortcut连接传递自身映射3、网络架构3.1、无残差网络3.2、残差网络4、实施方案4.1、训练阶段:与AlexNet和VGGnet类似。4.2、测试阶段:与AlexNet类似四、实验结果1、ImageNet分类比赛1.1、无残差网络1.2、残差网络1.3、恒等映射 VS 投影shortcut连接*1.4、更深的沙漏(bottleneck            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-15 12:54:08
                            
                                54阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            摘要越深层次的神经网络越难以训练。我们提供了一个残差学习框架,以减轻对网络的训练,这些网络的深度比以前的要大得多。我们明确地将这些层重新规划为通过参考输入层x,学习残差函数,来代替没有参考的学习函数。我们提供了综合的经验证据,表明残差网络更容易优化,并且可以从显著增加的深度中获得准确性。在ImageNet数据集上,我们对剩余的网进行评估,其深度为152层,比VGG网41层更深,但仍可以保证有较低的            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-07-21 20:52:18
                            
                                66阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            Deep Residual Learning for Image Recognition 文章目录Deep Residual Learning for Image RecognitionAbstract摘要1. Introduction1. 引言2. Related Work2. 相关工作3. Deep Residual Learning3.1. Residual Learning3. 深度残差学            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-08-19 11:14:02
                            
                                33阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            前言:本文是我对照原论文逐字逐句翻译而来,英文水平有限,不影响阅读即可。翻译论文的确能很大程度加深我们对文章的理解,但太过耗时,不建议采用。我翻译的另一个目的就是想重拾英文,所以就硬着头皮啃了。本文只作翻译,总结及代码复现详见后续的姊妹篇。Alex原论文链接:https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e9            
                
         
            
            
            
            ResNeXt利用分组卷积思想改造ResNet,ResNet和Inception的结合体。论文结构:引文(介绍神经网络算法发展史,提出ResNeXt)相关工作(多分支卷积、分组卷积等)方法实现细节实验结果以第3节翻译为主。3 Method3.1 Template 架构 我们采用类似VGG/ResNets一样的高度模块化设计的网络。我们的网络由一系列residual blocks堆叠而成。这些blo            
                
         
            
            
            
            论文:《ResNeSt: Split-Attention Networks》论文链接:https://hangzhang.org/files/resnest.pdf
摘要大多数下游应用(例如目标检测和语义分段)仍将ResNet变体用作backbone。 我们提出了一个模块化的Split-Attention block,该block可实现跨feature map groups的attention。            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-08-21 11:51:00
                            
                                202阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            1、论文总述 2、The main reasons of not bring improvements 3、padding导致位置偏见的原因 4、实验结果分析 5、4条网络设计Guidelines 6、deeper or wider网络结构 7、为什么不能更深,43的反而不如22 8、VOT16和VOT15区别 9、 改变receptive field, feature size and str            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-15 11:04:16
                            
                                37阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            
            文章目录1.Regionn Proposal Network背景2.Regionn Proposal Network的结构3.Anchors4.Regionn Proposal Network的训练参考资料 1.Regionn Proposal Network背景RPN,Region Proposal Network是中科大与微软亚洲研究院联合培养博士,原Momenta研发总监任少卿与何凯明,R            
                
         
            
            
            
            写在前面:本系列笔记主要记录本人在阅读过程中的收获,尽量详细到实现层次,水平有限,欢迎留言指出问题~ 这篇文章被认为是深度学习应用于目标检测的开山之作,自然是要好好读一下的,由于文章是前些日子读的,所以仅凭记忆把印象深刻的地方记录一下,许多地方是自己理解,有错误请指出。1. 算法的流程  这篇文章干了一件什么事情呢,就是用selective search生成一堆建议区域,然后把这些建议区            
                
         
            
            
            
            ResNet 文章目录ResNet单词重要的不重要的摘要深度学习网络退化问题残差网络ResNet的网络结构代码残差连接的渊源残差连接有效性解释ResNeXtResNeXt为什么有效   论文题目:Deep Residual Learning for Image Recognition  ResNet论文下载链接: https://arxiv.org/pdf/1512.03385 单词重要的resi            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-08-25 20:24:23
                            
                                85阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            2015年最火的ResNet现在看已经是过去时了,后来的DenseNet、Mask-RCNN等架构的出现已经磨平了2015CVPR best paper的锋芒。ResNet的想法非常简单,学过闭环反馈的话都会自然地想到是不是可以将信息跳跃式地反穿?当然,结构上看ResNet是正向的一个skip connection (shortcut)。其实一直以来我都不理解为什么ResNet能够解决深层网络效果            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-19 19:44:17
                            
                                70阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            文章目录0. 前言1. ResNet V12. ResNet V23. Wide ResNet4. ResNext5. Res2Net6. iResNet7. ResNeSt 0. 前言目标:总结残差网络系列论文,老忘记,就记录一下每篇论文的创新点。论文列表: 
  ResNet v1: Deep Residual Learning for Image Recognition 
    第一次提            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-07-01 15:42:49
                            
                                300阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            一、导论        深度神经网络的优点:可以加很多层把网络变得特别深,然后不同程度的层会得到不同等级的feature,比如低级的视觉特征或者是高级的语义特征。但是学一个好的网络,就是简简单单的把所有网络堆在一起就行了吗?如果这样,网络做深就行了。提出问题:随着网络越来越深,梯度就会出现爆炸或者消失解决办法就是:1、            
                
         
            
            
            
            ResNet 论文研读笔记            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2021-12-29 16:08:14
                            
                                610阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            SENet论文阅读论文Squeeze-and-ExcitationcodeSENetSqueeze-Excitation       一个SE block的计算起始单元是一个转换     ,其中       ,       是一个卷积操作,假设此层的卷积核定义为       ,       是通道数,并且定义       的输出为       ,其中第       通道的输出