一、卷积层

1、使用卷积运算在图像识别、图像分割、图像重建等应用中有三个好处:
(1)稀疏连接: 在卷积神经网络中,通过输入卷积核来进行卷积操作,使输入单元(图像或特征映射)和输出单元(特征映射)之间的连接是稀疏的,这样能够减少需要训练参数的数量,从而加快网络的计算速度。
(2)参数共享: 模型中同一组参数可以被多个函数或操作共同使用。
(3)等变表示: 由于卷积核尺寸可以远远小于输入尺寸,即需要学习的参数的数量,并且针对每个卷积层可以使用多个卷积核获取输入的特征映射,对数据具有很强的特征提取和表示能力,并且在卷积运算之后,使得卷积神经网络结构对输入的图像具有平移不变的性质。

#torch.nn模块包含torch已经准备好的层,方便使用者调用构建网络,卷积层 池化层 激活函数层 循环层 全连接层
#卷积层
import torch
import torch.nn as nn
import matplotlib.pyplot as plt
import numpy as np
from PIL import Image
myim=Image.open("data/run.jpg")#读取图像
myimgray=np.array(myim.convert("L"),dtype=np.float32)#转化为灰度图像-》转化为numpy数组
print(myimgray.shape)       #498*600
#可视化
plt.figure(figsize=(6,6))
plt.imshow(myimgray,cmap=plt.cm.gray)
plt.axis("off")
plt.show()
imh,imw=myimgray.shape
#将numpy数组转化为张量
myimgray_t=torch.from_numpy(myimgray.reshape((1,1,imh,imw)))
print(myimgray_t.shape)
#卷积时 需将 图像转化为四维来表示 [batch,channel,h,w]
'''
在对图像进行卷积操作后 获得两个特征映射:
1、使用图像轮廓提取卷积核获取
2、第二个特征映射使用的卷积核为随机数 卷积核大小为5x5 对图像的边缘不使用0填充 所以卷积后输出的特征映射的尺寸为494x596
'''
#对灰度图像进行卷积提取图像轮廓
kersize=5     #定义边缘检测卷积核
ker=torch.ones(kersize,kersize,dtype=torch.float32)*-1
ker[2,2]=24
ker=ker.reshape((1,1,kersize,kersize))
print(ker)
#进行卷积操作
conv2d=nn.Conv2d(1,2,(kersize,kersize),bias=False)
#设置卷积时使用的核,第一个卷积核使用边缘检测核
conv2d.weight.data[0]=ker
#对灰度图像进行卷积操作
imconv2dout=conv2d(myimgray_t)
#对卷积后的输出进行维度压缩
imconv2dout_im=imconv2dout.data.squeeze()
print("卷积后尺寸:",imconv2dout_im.shape)
#可视化卷积后的图像
plt.figure(figsize=(12,6))
plt.subplot(1,2,1)
plt.imshow(imconv2dout_im[0],cmap=plt.cm.gray)
plt.axis("off")
plt.subplot(1,2,2)
plt.imshow(imconv2dout_im[1],cmap=plt.cm.gray)
plt.axis("off")
plt.show()

pytorch平均池化层 pytorch 池化_卷积


原图:

pytorch平均池化层 pytorch 池化_深度学习_02


灰度图像:

pytorch平均池化层 pytorch 池化_深度学习_03


卷积操作后的图像:

pytorch平均池化层 pytorch 池化_可视化_04

二、池化层

1、池化层
池化操作的一个重要目的就是对卷积后得到的特征进行进一步处理(主要是降维)。
平均池化层、最大池化层。

maxpool2=nn.MaxPool2d(2,stride=2)
pool2_out=maxpool2(imconv2dout)
pool2_out_im=pool2_out.squeeze()
print(pool2_out_im.shape)
#可视化最大池化后的结果  torch.Size([2, 247, 298])
plt.figure(figsize=(12,6))
plt.subplot(1,2,1)
plt.imshow(pool2_out_im[0].data,cmap=plt.cm.gray)
plt.axis("off")
plt.subplot(1,2,2)
plt.imshow(pool2_out_im[1].data,cmap=plt.cm.gray)
plt.axis("off")
plt.show()

pytorch平均池化层 pytorch 池化_可视化_05

avgpool2=nn.AvgPool2d(2,stride=2)
pool2_out=avgpool2(imconv2dout)
pool2_out_im=pool2_out.squeeze()
print(pool2_out_im.shape)
#可视化平均池化后的结果 torch.Size([2, 247, 298])
plt.figure(figsize=(12,6))
plt.subplot(1,2,1)
plt.imshow(pool2_out_im[0].data,cmap=plt.cm.gray)
plt.axis("off")
plt.subplot(1,2,2)
plt.imshow(pool2_out_im[1].data,cmap=plt.cm.gray)
plt.axis("off")
plt.show()

pytorch平均池化层 pytorch 池化_深度学习_06

adaAvgpool2=nn.AdaptiveAvgPool2d(output_size=(100,100))
pool2_out=adaAvgpool2(imconv2dout)
pool2_out_im=pool2_out.squeeze()
print(pool2_out.shape)
#可视化自适应平均池化后的结果 torch.Size([1, 2, 100, 100])
plt.figure(figsize=(12,6))
plt.subplot(1,2,1)
plt.imshow(pool2_out_im[0].data,cmap=plt.cm.gray)
plt.axis("off")
plt.subplot(1,2,2)
plt.imshow(pool2_out_im[1].data,cmap=plt.cm.gray)
plt.axis("off")
plt.show()

pytorch平均池化层 pytorch 池化_深度学习_07