一、YOLACT 论文:https://arxiv.org/abs/1904.02689 yolact 源代码:https://github.com/dbolya/yolact yolact、yolact++本文的主要贡献: YOLACT是2019年发表在ICCV上面的一个实时实例分割的模型,它主要是通过两个并行的子网络来实现实例分割的。 (1)Prediction Head分支生成各个ancho
转载 9月前
66阅读
目录 数据加载(创建dataset对象)创建一个   DataLoader对象部分数据可视化 创建模型(two methods)没有使用GPU采用torchvision.models中的自带模型(resnet)自写模型循环DataLoader对象,将数据加载到模型中训练10epoch训练效果如下 数据加载(创建dataset对象)使用torchvi
转载 2024-03-18 15:03:24
57阅读
  Model Scaling(模型扩展)一直以来都是提高卷积神经网络效果的重要方法。比如说ResNet可以增加层数从ResNet18扩展到ResNet200,GPipe通过对基线网络的四倍扩展在ImageNet上可以达到84.3%的准确率。本节要介绍的最新网络结构——EfficientNet,就是一种标准化模型扩展的结果。通过下面这张图,我们可以直观的感受一下EfficientNet
转载 2024-05-06 21:58:19
89阅读
之前的一些记录数据集读取的通用流程(梳理)用Tensorflow实现SE-ResNet(SENet ResNet ResNeXt VGG16)的数据输入,训练,预测的完整代码框架(cifar10准确率90%)balabalabala之前的代码感觉还是太乱了,我刚开始学的时候还是用的tensorflow1.2 现在2.5都要出来了,就重新梳理了一下 这次用了Tensorflow1.15,统一使用了t
import torchimport torchvisionimport torchvision.transforms as transformstransform_train = transforms.Compose([ transforms.RandomCrop(32, padding=4), transforms.RandomHorizontalFlip(), ...
原创 2021-04-22 20:47:01
847阅读
 一共分三个文件,是可以跑通的resnet_utils, resnet_v2.py,resnet_v2 + cifar.py(前两个从官网下载,注释为网上摘抄和个人理解,第三个取自小蚂蚁的博客)resnet_utils# Copyright 2016 The TensorFlow Authors. All Rights Reserved. # # Licensed under
1.第一点疑问,关于AP50的计算方式的疑问,参考链接:,讲的比较清楚。2.第二点疑问,关于图像金字塔和特征金字塔,首先明确这两个东西是不同的,这点我是看文章明白的,推荐大家把原论文基本原理部分看一遍。3.关于横向连接,看了一篇博客是这么解释的,现在对横向连接有了第一个感觉就是怎么是这么融合的,ResNet每个阶段的输出和经过上采样之后的输出融合,对网络究竟影响在何处。另外我想研究FPN用在目标检
转载 2024-08-09 13:48:26
48阅读
这篇文章是用来讲解Resnet(残差网络)代码的,结合代码理解残差网络结构。目录Bottleneck类Conv3×3Conv1×1 BasicBlock ResNet _make_layer代码解析完整的ResNet代码:可以直接调用torch内置的resnet官方代码。from torchvision.models import resnet50 model = r
目录1.引言2.网络创新 Residual-残差块Batch Normalization 批范规划层迁移学习 3.网络架构4.代码实现5.总结1.引言ResNet 是在 2015 年由何凯明提出来的,斩获当年 ImageNet 竞赛中分类任务第一名,目标检测任务第一名,获得 COCO 数据集中目标检测第一名,图像分割第一名,NB。 原始论文为:Deep Residual Lea
oneDNN是Intel开源的深度学习加速库,其前身为MKLDNN,对于Intel自家硬件(CPU以及GPU),oneDNN对神经网络算子的计算过程进行了针对性的优化处理,从而显著提升了神经网络算子在Intel硬件下的计算速度。在训练侧,oneDNN已作为第三方工具被目前几乎所有的主流训练框架(TensorFlow、PyTorch、MXNet等)集成;在推理侧,其是OpenVINO的后端,并也经常
终于开题,抓紧发文,然后放飞,来由就是想搞一篇论文,但是增加了某个东西之后吧,速度变慢了,所以导师提议加个这玩意看看能不能快点。论文题目:TResNet: High Performance GPU-Dedicated Architecture代码:https://github.com/mrT23/TResNet包含三个变体,TResNet-M、TResNet-L 和 TResNet-XL,它们仅在
Resnet网络详细结构(针对Cifar10) 结构 具体结构(Pytorch) conv1 (conv1): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1), bias=False) (bn1): BatchNorm2 ...
转载 2021-07-28 23:30:00
894阅读
2评论
 如果对你有用的话,希望能够点赞支持一下,这样我就能有更多的动力更新更多的学习笔记了。??             使用ResNet进行CIFAR-10数据集进行测试,这里使用的是将CIFAR-10数据集的分辨率扩大到32X32,因为算力相关的问题所以我选择了
转载 2024-05-08 14:03:30
170阅读
One-hot encoding(伪变量)是一种将类别变量转换为几个二进制列的方法。机器学习中对分类变量的one-hot编码不是好选择。会随特征维度增加增加one-hot 数量。维度在较低量是更好的。如有一个代表美国州的列,one-hot方案将导致另外五十个维度。为数据集增加大量的维度,产生太多没用信息;导致异常稀疏的现象,且难以进行特征优化;对神经网络的优化器在错误空间时会遇到很多麻烦。而且每个
最近在使用InsightFace_Pytorch-master pytorch工程,然后有使用到SE_ResNet50,所以想要分析相应的网络结构(包括网络层名和读取对应层相应参数)了解什么叫做SE模块?SE是Squeeze-and-Excitation(SE)的缩写,该模块的提出主要是考虑到模型通道之间的相互依赖性。SE网络的使用结构如下图所示:上左图是将SE模块嵌入到Inception结构的一
转载 2024-05-27 19:06:01
162阅读
keras学习记录——resnet为什么用averagepooling?目录keras学习记录——resnet为什么用averagepooling?前言一、池化层二、为什么在resnet后加均值池化而不是最大池化?三、实际测试总结前言本篇主要讨论resnet最后的pooling层为什么用averagepooling,而不是maxpooling?主要用实验来回答这个问题,另外讲解了averagepo
转载 2024-05-26 17:15:50
697阅读
1、前言ResNet是何恺明等人于2015年提出的神经网络结构,该网络凭借其优秀的性能夺得了多项机器视觉领域竞赛的冠军,而后在2016年发表的论文《Deep Residual Learning for Image Recognition》也获得了CVPR2016最佳论文奖。本文整理了笔者对ResNet的理解,详细解释了ResNet34、ResNet50等具体结构,并使用PyTorch实现了一个使用
转载 2023-05-25 13:33:47
1695阅读
1、理论理论部分参考: (我下边这篇写得有点简略,完整公式还是直接点击原博链接吧,我不想复制了,因为会导致格式乱八七糟的。强烈恳求能出一个一键转载的功能!!!)ResNet论文地址: https://arxiv.org/pdf/1512.03385.pdf ResNet主要思想:恒等映射(identity mapping) 。当我们直接对网络进行简单的堆叠到
import time import torch from torch import nn,optim import numpy as np import torch.nn.functional as F from torch.optim import lr_scheduler def unpick ...
转载 2021-10-11 18:27:00
662阅读
2评论
这两天一直被cifar数据集困扰,所以给大家总结一下关于cifar数据集的一些东西。cifar数据集的来源与下载http://www.cs.toronto.edu/~kriz/cifar.html这是cifar数据集的下载网站,上面也有关于cifar数据集的一些使用教程,可以研读借鉴。Cifar-10 是由 Hinton 的两个大弟子 Alex Krizhevsky、Ilya Sutsk
转载 4月前
369阅读
  • 1
  • 2
  • 3
  • 4
  • 5