input
input:(32,32,3)
conv 1
• 网络结构:conv
• 超参数:卷积核大小为3 * 3,过滤器个数为16,步长为1,padding=same(使输出大小和输入大小相同)
通过计算可得:output_size = (input_size + 2*padding - kernel_size) / stride + 1
过滤器个数的作用是获取不同的特征维度,升维/降维
注:过滤器是卷积核的集合• 输出:(32,32,3)-> (32,32,16)
stage 0
• 网络结构:Conv Block -> Identity Block -> Identity Block -> Identity Block -> Identity Block -> Identity Block
注:stage 0 的 Conv Block 进行bn-relu操作之后分裂为两条路径,一条按原来的继续下去,另一条为shortcut connection• 超参数:
1. Conv Block
(1) bottleneck1 — 卷积核大小为1 * 1,过滤器个数为16,步长为1
(2)bottleneck2 — 卷积核大小为3 * 3,过滤器个数为16,步长为1
(3)bottleneck3 — 卷积核大小为1 * 1,过滤器大小为64,步长为1 — 此处进行了特征升维
(4)shortcut — 卷积核大小为1 * 1,过滤器大小为64, 步长为1
2. Identity Block
(1) bottleneck1 — 卷积核大小为1*1,过滤器个数为16,步长为1 — 此处进行了特征降维(因为上一层的过滤器个数是64,而这层是16)
(2)bottleneck2 — 卷积核大小为3 * 3,过滤器个数为16,步长为1
(3)bottleneck3 — 卷积核大小为1 * 1,过滤器大小为64,步长为1 — 此处进行了特征升维
(4)shortcut — 原输入 • 输出:(32,32,16) -> (32,32,64)
stage 1
• 网络结构:Conv Block -> Identity Block -> Identity Block -> Identity Block -> Identity Block -> Identity Block
• 超参数:
1. Conv Block
(1) bottleneck1 — 卷积核大小为1 * 1,过滤器个数为64,步长为2 — 此处进行了下采样
(2)bottleneck2 — 卷积核大小为3 * 3,过滤器个数为64,步长为1
(3)bottleneck3 — 卷积核大小为1 * 1,过滤器大小为128,步长为1 — 此处进行了特征升维
(4)shortcut — 卷积核大小为1 * 1,过滤器大小为128, 步长为1
2. Identity Block
(1) bottleneck1 — 卷积核大小为1 * 1,过滤器个数为64,步长为1 — 此处进行了特征降维
(2)bottleneck2 — 卷积核大小为3 * 3,过滤器个数为64,步长为1
(3)bottleneck3 — 卷积核大小为1 * 1,过滤器大小为128,步长为1 — 此处进行了特征升维
(4)shortcut — 原输入 • 输出:(32,32,64) -> (16,16,128)
stage 2
• 网络结构:Conv Block -> Identity Block -> Identity Block -> Identity Block -> Identity Block -> Identity Block
• 超参数:
1. Conv Block
(1) bottleneck1 — 卷积核大小为1 * 1,过滤器个数为128,步长为2 — 此处进行了下采样
(2)bottleneck2 — 卷积核大小为3 * 3,过滤器个数为128,步长为1
(3)bottleneck3 — 卷积核大小为1 * 1,过滤器大小为256,步长为1 — 此处进行了特征升维
(4)shortcut — 卷积核大小为1 * 1,过滤器大小为256, 步长为1
2. Identity Block
(1) bottleneck1 — 卷积核大小为1 * 1,过滤器个数为128,步长为1 — 此处进行了特征降维
(2)bottleneck2 — 卷积核大小为3 * 3,过滤器个数为128,步长为1
(3)bottleneck3 — 卷积核大小为1 * 1,过滤器大小为256,步长为1 — 此处进行了特征升维
(4)shortcut — 原输入 • 输出:(16,16,128) -> (8,8,256)
last
• 网络结构:bn -> relu -> avg pool -> fc
• 输出:(8,8,256)-> (1,1,256)-> (256) -> (10)
resnet50网络结果 resnet56
转载本文章为转载内容,我们尊重原作者对文章享有的著作权。如有内容错误或侵权问题,欢迎原作者联系我们进行内容更正或删除文章。
上一篇:nfs盘扩容 nfs存储
提问和评论都可以,用心的回复会被更多人看到
评论
发布评论
相关文章
-
批量登陆网络设备读取信息
重复的工作变成标准化流程,标准流程自动化;本文以ensp模拟器为环境,介绍使用python对网络设备进行批量自动化获取设备信息操作,读者可自行修改命令实现自动化配置下发;
python 网络自动化运维 批量登陆网络设备 批量获取配置 -
ResNet50网络
自从ResNet在2015年被提出,在ImageNet比赛classification任务上获得第一名,因为它“简单与实用”并存,之后很多方法都建立在ResN
网络 tensorflow 人工智能 2d 测试数据