# -*- coding: utf-8 -*-
"""
Created on Mon Sep  3 20:24:28 2018
@author: www
"""
import numpy as np
import torch
from torch import nn
from torch.autograd import Variable
import torch.nn.functional a            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-10-21 13:29:28
                            
                                24阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            深度学习笔记其六:现代卷积神经网络和PYTORCH1. 深度卷积神经网络(AlexNet)1.1 学习表征1.1 缺少的成分:数据1.2 缺少的成分:硬件1.2 AlexNet1.2.1 模型设计1.2.2 激活函数1.2.3 容量控制和预处理1.3 读取数据集1.4 训练AlexNet1.5 小结2. 使用块的网络(VGG)2.1 VGG块2.2 VGG网络2.3 训练模型2.4 小结3. 网            
                
         
            
            
            
            在图像分割以及其他领域可能会看到转置卷积,但是查看官方文档好像理解也有点困难,网上的博客好像也没写太清楚,特别是转置卷积内部的运算过程,个人觉得只有真正了解了转置卷积的内部运算过程,才能掌握转置卷积,只记公式是无法掌握转置卷积的。此外由于最近在复现 TSGB算法需要,将 转置卷积整理了下,希望对各位小伙伴有帮助!卷积运算不会增大 input 的尺度,通常是不变,或者降低 而转置卷积则可以用来增大            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-10-16 00:05:21
                            
                                149阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            前言转置卷积,学名transpose convolution,在tf和torch里都叫这个。 有时在论文里可以看到别人叫它deconvolution(反卷积),但这个名词不合适。 因为转置卷积并非direct convolution的逆运算(reverse),并不能还原出原张量,所以叫它逆卷积是错的。 只是从形状上看,其结果的形状等同于原张量的形状。写这篇文章是因为网上介绍转置卷积的博客, 都讲不            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-04-18 15:39:24
                            
                                157阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            本文目录ConvGroup ConvDepthwise Separable Convolution1. Depthwise Conv2. Pointwise Conv Conv首先是常规卷积,假设我们有一张的特征图,现在想得到一张的图,如果直接使用卷积操作,大卷积核(包含channel,3维)一共有10个,每个大小为。代码及计算过程如下图所示conv = nn.Conv2d(6, 10, ker            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-11 21:30:48
                            
                                101阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            深度可分离卷积(Depthwise Convolution)是一种有效的卷积操作,特别是在移动设备和嵌入式系统中应用广泛。本文将详细介绍如何在Python中实现深度可分离卷积的过程,包括环境准备、分步指南、配置详解、验证测试、排错指南以及扩展应用。
## 环境准备
### 软件要求
- Python 3.6及以上
- TensorFlow 2.x 或 PyTorch 1.x
- NumPy            
                
         
            
            
            
            TensorFlow里面的padding只有两个选项也就是valid和samepytorch里面的padding么有这两个选项,它是数字0,1,2,3等等,默认是0所以输出的h和w的计算方式也是稍微有一点点不同的:tf中的输出大小是和原来的大小成倍数关系,不能任意的输出大小;而nn输出大小可以通过padding进行改变nn里面的卷积操作或者是池化操作的H和W部分都是一样的计算公式:H和W的计算cl            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-10-10 11:11:29
                            
                                138阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            常规 pointwise depthwise            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2020-10-04 10:12:00
                            
                                921阅读
                            
                                                                                    
                                2评论
                            
                                                 
                 
                
                             
         
            
            
            
                         
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2021-11-16 13:57:31
                            
                                821阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            深度学习导论(3)PyTorch基础一. Tensor-Pytorch基础数据结构二. Tensor索引及操作1. Tensor索引类型2. Tensor基础操作3. 数值类型4. 数值类型操作三. Tensor与Numpy的互操作1. 小案例2. 序列化Tensor-torch方式3. 序列化Tensor-h5py方式四. Tensor on GPU五. Tensor operations1.            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-12-18 10:42:34
                            
                                116阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
                    池化常在卷积神经网络中使用,可以调节数据维数,抑制噪声、降低信息冗余、降低模型计算量、防止过拟合等作用。池化没有可学习的参数,与激活函数较为相似,池化在一维或多维张量上的操作与卷积层也有相似之处。        池化最初作用是降低数据量,使模型更容易训练,称为下采样(down-sampling)或下池化            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-11 16:38:08
                            
                                80阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            文章目录前言一、前置知识二、torch.nn.Conv2d三、torch.nn.Conv1d 前言  本系列主要是对pytorch基础知识学习的一个记录,尽量保持博客的更新进度和自己的学习进度。本人也处于学习阶段,博客中涉及到的知识可能存在某些问题,希望大家批评指正。另外,本博客中的有些内容基于吴恩达老师深度学习课程,我会尽量说明一下,但不敢保证全面。一、前置知识   上图就是一个多过滤器(过滤            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-09-02 11:19:13
                            
                                161阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            在当今时代,机器在理解和识别图像中的特征和目标方面已经成功实现了99%的精度。我们每天都会看到这种情况-智能手机可以识别相机中的面部;使用Google图片搜索特定照片的能力;从条形码或书籍中扫描文本。借助卷积神经网络(CNN),这一切都是可能的,卷积神经网络是一种特定类型的神经网络,也称为卷积网络。如果您是一名深度学习爱好者,那么您可能已经听说过卷积神经网络,也许您甚至自己开发了一些图像分类器。像            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-05-17 09:53:04
                            
                                16阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            首先先说明第一个答案,也就是PyTorch中卷积层的计算方法,其实这点很多人可能在书上已经看过图了,我只是用代码复现一遍我们把所有变量都明确,首先是输入变量,我们设为2 * 2的全1矩阵,如下: 然后初始化一个二维卷积层,并输出其weight和bias,如下:我们可以看到,weight和bias都有两个值,这是因为我们定义了输出通道为2,所以给我们分配了两个卷积核,然后可以看到权值分别为0.784            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-02 07:09:33
                            
                                108阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            目录
  举例
  单个张量与多个卷积核在深度上分别卷积
  参考资料
 
举例
如下张量x和卷积核K进行depthwise_conv2d卷积
 
结果为:
depthwise_conv2d和conv2d的不同之处在于conv2d在每一深度上卷积,然后求和,depthwise_conv2d没有求和这一步,对应代码为:
import tensorflow as tf
# [            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2019-08-20 10:17:00
                            
                                149阅读
                            
                                                                                    
                                2评论
                            
                                                 
                 
                
                             
         
            
            
            
            先来看看pytorch二维卷积的操作API现在继续讲讲几个卷积是如何操作的。一. 普通卷积torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)普通卷积时group默认为1  dilation=1(这里先暂时不讨论dilati            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-09-26 18:09:29
                            
                                218阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            官方的api介绍:https://pytorch.org/docs/stable/nn.html?highlight=nn conv2d#torch.nn.Conv2dPytorch中nn.Conv2d的用法nn.Conv2d是二维卷积方法,相对应的还有一维卷积方法nn.Conv1d,常用于文本数据的处理,而nn.Conv2d一般用于二维图像。先看一下接口定义:class torch.nn.Con            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-11-15 20:04:23
                            
                                123阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            目录一、Conv2d 二、Conv2d中的dilation参数一、Conv2d首先我们看一下Pytorch中的Conv2d的对应函数(Tensor通道排列顺序是:[batch, channel, height, width]):torch.nn.Conv2d(in_channels, 
                out_channels, 
                kern            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-10 12:43:03
                            
                                325阅读
                            
                                                                             
                 
                
                                
                     
                                    
                             
         
            
            
            
            卷积函数注: 函数语法、参数介绍、shape、变量、Example,均转自 PyTorch 中文手册。 说实话 PyTorch 中文手册 对于参数in_channels和out_channels的讲解还是不够详细。 所以我参考了另一篇博客 【PyTorch学习笔记】17:2D卷积,nn.Conv2d和F.conv2d 来讲解这两个参数的意义。函数语法:一维class torch.nn.Conv1d            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2024-02-19 11:17:11
                            
                                128阅读
                            
                                                                             
                 
                
                             
         
            
            
            
            PyTorch构建卷积层二维图像卷积一、 二维卷积层的实现1. 手动实现二维卷积层2. Pytorch的卷积层API实现二、 二维卷积层的填充和步幅 二维图像卷积使用全连接层来处理图片时,如果图片的尺寸比较大,那么就会出现参数爆炸的情况,模型复杂度直线提升而难以训练。为了降低模型的复杂度,提出了卷积层的概念。 卷积层是在全连接层的基础上,对于参数的取值加以限制来降低模型的复杂度。基于这样两种假设            
                
                    
                        
                                                            
                                                                        
                                                                                        转载
                                                                                    
                            2023-08-08 09:08:08
                            
                                117阅读