作者:胡杰       本届 CVPR 2017大会上出现了很多值得关注的精彩论文,国内自动驾驶创业公司 Momenta 联合机器之心推出 CVPR 2017 精彩论文解读专栏。除此之外,Momenta 还受邀在 CVPR 2017 的 ImageNet Workshop 中发表演讲,介绍 Momenta 在ImageNet 2017 挑            
                
         
            
            
            
            昨天学习了CBAM模块和ACNet。今天就想试一下CBAM模块的效果,所以编写了代码在MNIST数据集上做分类任务,但是看不出什么差别,而且没加CBAM模块的效果反而好一些。我觉得原因可能是因为数据集太小了没法做到这一点,改天在VOC数据集上试一试效果看看如何。今天先把实验结果报道一下,学习率,epoch次数和batch_size的大小完全保持不变先上Pytorch代码import torch
i            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-21 21:40:18
                            
                                252阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            1、PSPNet原代码地址: link. 2、Resnet嵌入CBAM代码参考: link. 3、注意力机制原理参考: link. 起初直接按照Resnet嵌入CBAM代码进行修改,由于增加机制后的resnet增加了预训练的参数,因此报错: 百度搜了一下解决方案: 需要修改预训练的参数,但网上的代码多是用于解决原预训练参数多于修改后的模型,例如:(原博客地址一时翻不出来了,如有找到了的麻烦告诉一下            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-21 21:06:55
                            
                                286阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            
    一、Cisco IOS安全技术 
     
    Cisco IOS防火墙特性集作为Cisco IOS软件的一个选项,提供了一个先进的安 
   全解决方案,这种集成化路由器安全解决方案是Cisco Systems安全解决方案系 
   统中的一个部件。 
     
    Cisco IOS安全服务包括一系列特性,能使管理人员将一台Cisco路由器配置成 
   为一个防火墙,而            
                
         
            
            
            
            双流网络搭建在VggNet中曾表明,网络层的深度是对于学习表达能力更强的特征至关重要。但是增加深度随着带来的是duration的问题,网络性能变差,直接表现在训练集上准确率降低。 使用残差网络来搭建时空网络,可选择的网络'ResNet':'resnet18', 'resnet34', 'resnet50', 'resnet50_aux', 'resnet101', 'resnet152'
#已在I            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-07-02 22:07:45
                            
                                151阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            前言:该篇论文(2018年)提出两个attention模块,一个是基于channel(CAM),一个是基于spatial(SAM)。同时,两个模块也可以组合起来使用,形成CBAM。CBAM是一个轻量化模块,两个模块的实现都比较简单,而且能够在现有的网络结构中即插即用。在YOLOv4中就用到了SAM。 论文: https://arxiv.org/abs/1807.06521. 代码: https:/            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-08-30 11:23:11
                            
                                222阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            ResNet18+图像二分类+pytorch项目背景最近在检查项目的时候发现有部分的图像通过opencv打开保存后自动保存为了BGR图像,而windoms系统打开查看是默认RGB的,所以会造成一定的影响可以在上图看到这种现象,所以我训练了一个简单是二分类模型来对BGR和RGB图像进行分类,使用的是pytorch框架,考虑到轻量化,所以Resnet18模型项目大纲数据处理对于这种简单的二分类模型,数            
                
         
            
            
            
            前言        书接上回,我们使用lenet5实战cifar10在测试集上实现了50%-60%的正确率,效果还是比较差的,接下来我将基于pytorch框架从零实现resnet18来实战下cifar10数据集。 网络结果参考深度学习花书设计,最终实现80%的准确率,准确率直接提高了20%,当然据说使用resnet18            
                
         
            
            
            
            2017年CVPR最佳论文,改进了ResNet,降低了模型的复杂度,进一步减少了梯度消散的问题。ResNet存在的问题: a. 文中提到在ResNet中,由于shortcut操作时与卷积的结果使用的是相加方式,并且只与未通过卷积层的数据相连,导致在许多贡献不多的层中,实际上一个又一个的模块就是在重复的,这些层在训练中都是可以被丢弃的,但由于每一层都有他自己的参数,导致模型非常的大。DenseNet            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-06-26 20:37:13
                            
                                69阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            CBAM: Convolutional Block Attention Module 文章目录CBAM: Convolutional Block Attention Module参考个人理解Channel AttentionSpatial Attention如何融入ResBlock中?效果如何?实现 参考【注意力机制】CBAM详解CBAM–卷积层中的注意力模块attention-module个人理            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-08-06 11:25:46
                            
                                402阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            1.ResNet网络1.1 ResNet解决的关键问题是什么?是过拟合吗?是梯度消失吗?都不是,或者说不完全是。过拟合的最明显表征是方差大,即训练集上效果好,测试集上效果差,但是深层模型在训练和测试上效果都差。而梯度消失的问题在BN层(本质上控制了每一层的模值输入,将上一层的输出从饱和区拉到了非饱和区,使得每一层的梯度都维持在较合理的范围内)引入之后也解决了大半。 ResNet解决的最关键问题是:            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-27 12:37:26
                            
                                31阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            ResNet详解论文亮点:超深的网络结构(突破1000层)提出residual模型使用BN加速训练,丢弃(Dropout) 残差结构解决的问题梯度消失或梯度爆炸网络退化的问题残差结构 左边的图是针对于网络层数较少的残差结构,ResNet-34 右边的图是针对网络层数比较神的残差结构,ResNet-50/101/152 残差结构是通过主线的残差结构,加上短接线的输出结构,经过激活函数,这里值得注意的            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-21 09:16:02
                            
                                50阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            应用于图像识别的深度残差网络:ResNet1.论文背景2.论文工作2.1 BN层2.2 残差块2.3 34层ResNet网络结构 1.论文背景《Deep Residual Learning for Image Recognition》ResNet是微软MSRA何凯明团队在2015年ImageNet上使用的网络,在当年的classification、detection、localization比赛            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-08-07 09:14:51
                            
                                48阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            ResNet是在2015年被提出的 ,并在ImageNet比赛classification任务上拔得头筹。 在我们熟悉ResNet网络之前,先看看ResNet究竟解决了什么问题吧~ 我们的一般印象当中,深度学习愈是深(复杂,参数多)愈是有着更强的表达能力。凭着这一基本准则CNN分类网络自Alexnet的7层发展到了VGG的16乃至19层,后来更有了Googlenet的22层。可后来我们发现深度CN            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-10 17:11:39
                            
                                140阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            一、残差神经网络——ResNet的综述深度学习网络的深度对最后的分类和识别的效果有着很大的影响,所以正常想法就是能把网络设计的越深越好,但是事实上却不是这样,常规的网络的堆叠(plain network)在网络很深的时候,效果却越来越差了。其中原因之一即是网络越深,梯度消失的现象就越来越明显,网络的训练效果也不会很好。 但是现在浅层的网络(shallower network)又无法明显提            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-06-20 17:21:26
                            
                                113阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            项目实训第七周(4.12-4.18) 时间紧迫,我们小组决定先一起做一个论文上的模型复现以达到中期检查的要求。我们选择的李东进学长的论文,他的论文中的一个模型大体描述如下:文本分为考生答案与参考答案。首先,他采用双向LSTM进行编码,编码完成后进行互注意力下的双向考量。拿到的结果作为下一步的输入,进入另外一个双向LSTM网络进行进一步的信息提取,提取后得到的向量拼接,进入MLP,然后进行softm            
                
         
            
            
            
            简介BERT模型来自谷歌团队的paper——BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,它在11个NLP任务中刷新了成绩,效果非常好,非常惊人。但是,这项工作不是很好复现,如果没有足够的资源就不要想了 。之前,利用预训练的语言表征来完成下游NLP任务的研究,可以概括为两类:feat            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-09-10 08:21:12
                            
                                126阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            ResNet网络模型的详细过程解析以ResNet50为例,详细解析网络的连接过程:(可以参考着本博客最后一张图进行理解)224x224x3的图片作为输入,经过7x7的卷积核,进行步长为2的卷积,得到大小112x112通道数为64的卷积层。然后经标准化BN和激活函数Relu。 然后经过3x3的最大池化层进行步长为2的池化。得到大小为56x56,通道数64保持不变的输出结果,记为stage0_1。然后            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-03-20 12:42:23
                            
                                162阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            Backbone-ResNet1.介绍ResNet太耀眼了,何凯明团队在2015年在论文Deep Residual Learning for Image Recognition中提出后,至今已经有了8w+的被引数,因为是华人学者的成果,ResNet在国内宣传得很好。到2015年,当时基于卷积的backbone有AlexNet、GoogLenet、VGG等,这些网络都有一个特点:网络层数比较少,最多            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-23 10:28:59
                            
                                64阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            【SCRDet++论文解读】 模型部分一、实例去噪二、候选区域生成网络三、回归分类 SCR Det++ 的模型结构是基于 Faster R-CNN 设计的,包括4部分,如下图所示:用于进行特征提取的基础网络(basic embodiment for feature extraction)。以ResNet为基础,添加了特征金字塔(FPN) 以进行多尺度特征融合。用于消除实例噪声的实例级去噪网络(i            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-07-24 18:50:36
                            
                                196阅读