一、后处理1.1 前置环境1.mmWave-DFP-2G2.mmWave Studio 3.03.串口通信工具(xshell、putty等)4.WinSCP(从评估版上导出数据)5.MATLAB Runtime v851(32 bit)(必须为此版本,mmWave Studio依赖于该环境)1.2 数据采集1.IP配置,设置上位机静态IP:192.168.33.30;子网掩码:255.255.25
面向对象的设计原则-类设计原则   在面向对象设计中,如何通过很小的设计改变就可以应对设计需求的变化,这是令设计者极为关注的问题。为此不少OO先驱提出了很多有关面向对象的设计原则用于指导OO的设计和开发。下面是几条与类设计相关的设计原则。1. 开闭原则(the Open Closed Principle OCP)   一个模块在扩展性方面应该是开放的而在更改性方面应该是封闭的。因此在进行面向对象设
Windows10下跑通YOLOv4模型,从配置环境开始,测试成功!1、配置环境1.1安装VS 安装的组件只需要“使用C++的桌面开发”。 我使用的是VS2017(社区),如果你安装的是其他版本应该也问题不大。 得到:一步步安装即可。1.2安装OPENCV 点击可得:1.3安装CUDA下载地址 得到:1.4安装显卡驱动下载网址! 电脑显卡为 GeForce GTX 1050Ti 下载类型选择SD类
一,目标检测简介二,yolov1网络的输出结果分析我们首先来看一下yolov1的网络图,如下图所示。 在yolov1的网络当中,输入的图片的大小为448x448x3,这个在图中也可以很明显的看出来。重点是,输出的7x7x30的输出结果包含哪些信息。首先我们先看一下下面这张图片: 在图片当中,可以看到,图像被分为7x7的网格,与上面提到的网络输出7x7x30相对应,可以看出每一个网格都包含30个输出
    darknet训练自己的数据,官方提供了一个训练VOC的例子,我们参照这个例子,来训练我们自己的数据。1. 准备数据集         首先我们应该准备好我们自己的数据集用于训练。要训练一个自己的网络,我们需要有训练集和测试集。在这里,我们建立两个文件夹train和val用于存放这两类数据。
转载 8月前
538阅读
x浏览器控制台会报错的 <script src="js/pos
转载 2023-01-30 16:19:40
602阅读
基于Yolov5与LabelMe训练自己数据的实例分割完整流程1. Yolov5配置2. 创建labelme虚拟环境4. 接下来开始使用labelme绘制分割数据集4.1 json to txt4.2 划分数据集(可分可不分)5. 训练 1. Yolov5配置2. 创建labelme虚拟环境conda create -n labelme python=3.9 # 激活labelme 环境,后续的
0. 准备工作下载YOLOv5 github项目:https://github.com/ultralytics/yolov5,下载速度可能会比较慢,可以尝试用迅雷、gitee等方法。下载完成后进行解压。下载模型文件:yolov5项目中提供了模型下载的脚本:download_weights.sh(yolov5/weights目录下),该脚本从谷歌网盘https://drive.google.com/
转载 2024-11-01 10:56:58
108阅读
之前一直做稀疏表示,最近在学深度学习有关的有关方向,先从YOLO入手。YOLO(You Only Look Once)从2016年开始到现在已经有众多博客、公众号、知乎文章等进行讲解。主要参考:深入浅出Yolo系列之Yolov3&Yolov4&Yolov5&Yolox核心基础知识完整讲解     作者江大白该文讲了一些基础知识,相当于论文翻译,
主要的编译方法可以参考这篇博客https://blog.csdn.net/KID_yuan/article/details/88380269我的编译环境win10, VS2015,
原创 2021-06-10 23:18:55
1571阅读
主要的编译方法可以参考这篇博客https://blog..net/KID_yuan/article/details/88380269我的编译环境win10, VS2015, OpenCV3.3,cuda_10.0.130_411.31_win10.exe,cudnn-10.0-windows10-x-v7.6.4.38跟着上面博客做基本不会出什么大问题,我遇到的问题简单罗列...
原创 2022-03-09 14:28:24
113阅读
我们可以通过Bean后处理器跟容器后处理器来拓展Ioc容器。前者能增强bean的功能,后者能增强容器功能。Bean后处理器这是一种特殊的bean,不对外提供服务,也无需id属性,只负责对其它的正常bean执行后处理,比如为容器中的bean生成代理等。它会在正常bean创建后被创建,必须实现BeanPostProcessor接口。里面的两个方法会在目标bean初始化之前之后被调用。使用Applica
原创 2015-09-02 07:21:27
1047阅读
雷达站算法汇报1.功能实现目前实现功能:1.实现对视野内比赛机器人的目标识别、跟踪与预测。 2.实现对目标三维坐标的获取,距离与偏转角度的测量。 3.实现到二维小地图的投影变换。2.模块划分主要分为三个模块:识别(detect)、跟踪(track)和定位(locate)。2.1 目标识别该模块主要借助yolov5实现目标的检测。 可以把yolov5看做是基于pytorch的深度神经网络,输入一张图
U版的YOLOv3本身是在COCO数据集上训练的。因为COCO数据集过大,训练周期比较长,所以就想到先用Pascal VOC数据集做训练搞研究。同理,可以先用基于AlexNet写的小网络+CIFAR10数据集做神经网络研究。CIFAR10图像提取我的思路是,尽量不修改U版YOLO的源代码,对Pascal VOC数据集做处理,使之产生一系列和coco数据集一样的说明文件,来满足U版代码的要求,随后直
转载 10月前
62阅读
注:1. 关于本文档提供的一切信息都基于的麒麟系统为V10SP2版本,CPU为华为鲲鹏,其他版本或者其他CPU可能会有不同2. 麒麟客服联系方式,麒麟浙江客服微信: kylinos_021.麒麟服务器系统属于linux中的哪类系统?麒麟系统更类似于linux系统中的RedHat、centos, 使用的包管理组件为yum 2,麒麟系统与以前linux系统的不同
转载 2023-10-13 11:22:32
965阅读
屏幕后处理,通常指的是在渲染完整个场景得到屏幕图像后,再对这个图像进行一系列操作,实现各种屏幕特效,使用这种技术,可以为游戏画面添加更多的艺术效果,例如景深【depth of field】、运动模糊【motion blur】等。因此,想要实现屏幕后处理的基础在于得到渲染后的屏幕图像,即抓取屏幕,而 unity 为我们提供了这样一个 方便的 借口 -----OnRenderImage 函数:Mono
在一个游戏项目 逻辑等大致框架搭建完成之后 如果是一个偏于观赏性的游戏的话 后期的处理可以说非常重要的之前我写过一篇关于用UGUI控制游戏内画质的博客肯恩过对于优化后期画质等方面对大家有用然后今天我来介绍一下PostProcess插件 这个插件的功能可以说是很强大了 有大佬会用c#代码来写滤镜 达到想要的效果 通过这个插件我们可以随心所欲的调整颜色等参数 而且是零代码准备工作 首先在unity导入
转载 2024-02-03 03:06:10
47阅读
场景  这段时候回学校弄科研了,在不开始写论文怕是毕不了业了。我做的方向是粉尘爆炸仿真,用的是Ansys,粉尘爆炸是气固两相的,会涉及双向流固耦合问题,燃烧化学反应,静态应力分析等。  要是有人和我方向相近,或者也是刚刚入门ansys,可以互相交流一下。  这里主要记录一下fluent中的后处理,我用的是2021R1中文版。解决  保存数据  完成计算后,选择文件->导出->Case和
如U3D中Hierarchy面板下的搜索效果: 讲解分析:1.这种PostEffect效果其实就是指Unity shader的后处理,即游戏中实现屏幕特效的常见方法。顾名思义屏幕后处理就是指在渲染完整个场景得到屏幕图像后,再对这个图像进行一系列操作,实现各种屏幕特效。2.要实现这种屏幕后处理的基础在于得到渲染后的屏幕图像,即抓取屏幕,Unity中提供给我们一个方便接口——OnRender
转载 2023-12-09 16:07:12
152阅读
 V10 glusterfs(2) 操作:准备三台虚拟机:client(10.96.20.118/24,测试挂载使用)server1(eth0:10.96.20.113/24,eth1:192.168.10.113/24,/dev/sdb(5G))server2(eth0:10.96.20.114/24,eth1:192.168.10.114/24,/dev/sdb(5G))/
原创 2016-09-13 17:04:26
1706阅读
  • 1
  • 2
  • 3
  • 4
  • 5