最近需要用到FCN来分割一些物体,所以一直在苦苦学习中,光是跑FCN就用了挺久时间,最重要是在数据格式上。现在做一下总结,针对小白。如果有错误希望能及时指出。谢谢!准备工作我用是caffe和fcn,caffe可以从这里获得git clone https://github.com/BVLC/caffe.gitcaffe安装可以根据我另一片博客深度学习ssd配置并在VGG模型上训练自己
 首先我使用机器只安装了cuda 9.0,后来又重新配置了一个cuda 8.0,这里配置方式参见2 当代码准备好了,你需要运行一下测试demo.py文件,然后遇到文件下载问题。能问题不大,不能参见这个链接,可以在百度云下载,,接着你就可以看到目标检测在给出几张示例图片上效果了。3 在pascal voc2007上做实验进行一遍训练,首先还是需要准备好数据集和预训练模型,
一、训练(trainval)1. 制作voc格式kitti数据集,并链接到data/数据集软链接 格式ln -s $VOCdevkit VOCdevkit2007我们:(这三个都要链过去,只链一个1819不够)cd data/ ln -s /home/zhaoxl/jiaqun/lujialin/data/VOCdevkit2018 VOCdevkit2018 ln -s /home/zha
mmdetection安装并训练自己VOC数据集mmdetection安装与VOC数据训练一. mmdetection安装1.使用conda创建虚拟环境2.安装Cython3.安装mmcv4.安装pytorch5.安装mmdetection二. 使用mmdetection训练自己VOC数据集1. 目录结构2. 修改class_names.py文件3. 修改voc.py文件4. 修改
1、fcos网络    在常见计算机视觉任务中,个人认为检测是比较复杂。主要原因也是anchor生成机制原因,检测过程涉及anchor尺寸scale和长宽比aspect radio等超参数设置,检测框匹配,正负样本不均匀,计算复杂度高等等问题解决。所以近年来anchor机制是检测里面的主流。    当然也有人开始挑战权威。提出了anchor-fr
转载 6月前
7阅读
【1】config.ini#配置文件 [base] batchsize=10 ckptpath='./dowoload/weights_19.pth' train_path="F:/PytorchTes/torchdeeplearnmodel/unetdata/train" val_path="F:/PytorchTes/torchdeeplearnmodel/unetdata/val"【2】ma
转载 6月前
5阅读
前言:本文主要描述了如何使用现在热度和关注度比较高Pytorch(深度学习框架)构建一个简单卷积神经网络,并对MNIST数据集进行了训练和测试。MNIST数据集是一个28*28手写数字图片集合,使用测试集来验证训练模型对手写数字识别准确率。PyTorch资料:PyTorch官方文档链接:PyTorch documentation,在这里不仅有 API说明还有一些经典
数据准备先将自己数据转成VOC数据集类似的数据,图片为jpg格式,标签为xml格式。在Faster RCNN目录下data文件夹下建立VOCdevkit2007文件夹,再在此文件夹下建立VOC2007文件夹,再在VOC2007文件夹下建立Annotations,ImageSets , JPEGImages三个文件夹,Annotations文件夹下存放xml文件,ImageSets文件夹下建立M
转载 2024-04-16 09:48:03
155阅读
pytorch模型训练函数整理——train.py一、模型训练——train.py1.1 分配硬件设备——torch.device1.2 原始数据划分——torch.utils.data.DataLoader1.3 RMSprop初始化——torch.optim.RMSprop()1.4 二分类损失函数——nn.BCEWithLogitsLoss()1.5 设置训练/评估模式——model.tr
转载 2023-08-11 14:13:22
127阅读
第一部分:制作自己数据集 实验中我用数据集是471张行人图片(由于部分原因,数据集不能公开,望大家见谅),标出其中行人位置作为数据标签,所以我只检测了一类,原来voc是检测20类,这里我们为了做实验方便,所以选择一类训练,加上背景为两类。 1、所需文件Annotations和ImageSets和JPEGImages文件夹名称,删除其中所有的文件(保留文件夹),并删除Segmenttat
转载 2024-05-13 16:25:06
72阅读
 cvpr2017,凯明大作 论文提出多尺度物体检测算法,特征金字塔Feature Pyramid Network (FPN) 。原来多数物体算法都是只采用顶层特征做预测,像faster RCNN系列,但是低层特征语义信息比较少,但是目标位置准确;高层特征语义信息比较丰富,但是目标位置比较粗略。另外虽然也有些算法采用多尺度特征融合方式,但是一般是采用融合后
前言用深度学习做目标检测,经常会接触到pascal voc这个数据集。目前很多开源项目对数据处理格式都采用和voc一样格式,逐渐这成为了一种标准数据处理格式,这里记一次制作符合自己需求VOC格式数据集。VOC数据集简介文件夹树结构└── VOCdevkit #根目录 └── VOC2007 #不同年份数据集,这里只下载了2007,还有2012等其它年份
目录前言一,视频处理1.1 视频准备1.2 切割视频为图片1.3 使用faster rcnn自动框人1.4 via标注图片二,数据集文件2.1 数据集文件总览2.2 annotations2.2.1 ava_train_v2.2.csv2.2.2 ava_val_v2.2.csv2.2.3 ava_val_excluded_timestamps_v2.2.csv2.2.4 ava_action
转载 2024-05-12 18:03:08
573阅读
1. 数据集视频准备本次训练以实验为目的,了解该框架训练步骤,选取了1段30秒以上关于打电话视频。2. 视频抽帧目的:(1)1秒抽1帧图片,目的是用来标注,ava数据集就是1秒1帧(2)1秒抽30帧图片,目的是用来训练,据说因为slowfast在slow通道里1秒会采集到15帧,在fast通道里1秒会采集到2帧。以下是运行代码:video2img.pyimport os impor
转载 2024-05-11 14:10:31
934阅读
环境: Ubuntu 18.04 + cuda 10.1 + pytorch=1.0.0 + torchvision=0.2.1 + python=3.6.2 代码参考是github上大神开源代码https://github.com/jwyang/faster-rcnn.pytorch Step一、下载安装1、首先代码下载,自己down或者git命令clone都可,需要
转载 2023-07-10 23:08:01
255阅读
以往大多数教程都是数年前Faster RCNN源码,因为旧环境和现有环境不同,导致环境配置方面出现一系列问题。特别是利用setup.py或者make.sh配置所需环境时,遇到并解决一个又一个问题,遗憾是,失败总是贯彻全局。解决方案:找到近年Faster RCNN源码,观察是否需要setup.py,作为一个Lucky Boy,在此分享我操作流程。 源码编写非常棒!里面也详
之前配置好了faster rcnn,生成了demo,激动死了,准备来试试自己数据,今天先制作数据集~ 1.首先制作需要数据格式,在这里我是根据这篇博客来制作,根据自己要求做了少许修改。对图像数据进行重命名matlab程序如下: clc; clear; maindir='E:\faster_rcnn-master\正样本\'; n
转载 2024-06-23 16:28:22
187阅读
源码地址:https://github.com/jwyang/faster-rcnn.pytorch环境:Ubuntu 16.04、python2.7或3.6,显卡GTX1080Ti,pytorch0.4.0,CUDA8.0一、环境配置:1.1、 系统环境:Ubuntu 16.04:安装教程:https://jingyan.baidu.com/article/3c48dd348bc005e10be
转载 2024-02-01 14:01:34
276阅读
 在看了一些深度学习目标检测论文后,想着去用开源代码去跑一下,看看实际效果。于是小菜就想着直接把faster_rcnn用起来,包括前期faster_rcnn安装和配置并运行其中一个demo.py。后面是用自己数据训练faster_rcnn模型。  1. 准备工作:1) 搭建caffe框架这个可以参考linux先搭建caffe笔记。2) 安装第三方依赖包:Cython、 pyt
转载 2023-12-01 22:07:19
161阅读
Faster RCNN详解类文章实在是数都数不过来,这些详解类文章大多是从网络结构角度出发,对于Faster RCNN训练流程介绍比较少。从我个人经历来看,感觉单纯理解网络结构对Faster RCNN理解还不够透彻,尤其是生成有效anchor这一块。因此本文从Faster RCNN训练流程这个角度出发,对Faster RCNN进行详解,重点对anchor相关操作进行细致分支。本
  • 1
  • 2
  • 3
  • 4
  • 5