本文的论文来自: An Analysis of Single-Layer Networks in Unsupervised Feature Learning, Adam Coates, Honglak Lee, and Andrew Y. Ng. In AISTATS 14, 2011。在其论文的demo_code。不过我还
目标检测的问题,就是在给定的图片中找到物体的位置,并标明物体的类别。 通过卷积神经网络CNN,我们可以完成图像识别,即分类任务,然后我们需要通过一些额外的功能完成定位任务,即找到上图中方框在图像中的位置。目前目标检测的研究路线如下,相关论文在这里可以找到,在这里我们选取部分论文来解释一下。R-CNN步骤1:训练一个分类模型(比如AlexNet);步骤2:对该模型进行fine-tuning;步骤3:
转载
2024-03-14 18:10:52
221阅读
1.2 什么是神经网络这个课程啥也没讲,就用一个最简单的例子引出神经网络。下图所示ReLu激活函数,全称是rectified linear unit,后面还会出现一个其他的激活函数。 把一个个小的神经元堆叠起来就形成神经网络,中间的神经元称为隐藏神经元,当这个神经网络训练完成之后,就可以通过输入x特征就可以得到target了。 1.3 用
转载
2023-12-15 23:20:18
49阅读
关键词:监督模式和非监督,马氏距离,bayes决策理论1.监督模式识别和非监督模式识别的区别 监督学习(supervised pattern recognition):已知要划分的类别,并且能够获得一定数量的类别已知的训练样本。 非监督学习(unsupervised pattern recognition):事先不知道划分的是什么类别,更没有类别已知的样本做训练。 说白了就是给你数据和lab
转载
2024-04-18 14:49:40
89阅读
一篇文章就搞懂啦,这个必须收藏!我们以图片分类来举例,当然换成文本、语音等也是一样的。Positive
正样本。比如你要识别一组图片是不是猫,那么你预测某张图片是猫,这张图片就被预测成了正样本。Negative
负样本。比如你要识别一组图片是不是猫,那么你预测某张图片不是猫,这张图片就被预测成了负样本。TP
一组预测为正样本的图片中,真的是正样本的图片数。TN:
一组预测为负样本的图片中,真的是负
转载
2024-05-17 08:33:34
198阅读
# NLP 中的正样本与负样本
在自然语言处理(NLP)领域,样本的标注对于模型的训练至关重要。正样本和负样本是分类任务中最基本的概念。正样本是指符合特定条件的样本,而负样本则是指不符合这些条件的样本。在本篇文章中,我们将探讨正样本和负样本的定义、用途,并通过代码示例进行解释,最后用状态图和旅行图进行可视化。
## 正样本与负样本的定义
- **正样本**:在情感分析任务中,正样本通常是指带
在前面章节中,我们介绍了几种半监督方案包括一致性正则,FGM对抗,最小熵原则,mixup增强。MixMatch则是集各家所长,把上述方案中的SOTA都融合在一起实现了1+1+1>3的效果。我们以MixMatch为基准,一并介绍几种衍生方案MixText,UDA,FixMatch
在前面的几个章节中,我们介绍了几种基于不同半监督假设的模型优化方案,包括M
adaboost+hog识别目标前言:我们将要产生一个包含级联分类器的.xml文件(包含级联分类器的信息),也就是最为关键的一部分将用到opencv_cratesample.exe和opencv_traincascade.exe(在opencv\build\x64\vc14\bin目录下,如果你是32位选择VC12)。正负样本的准备1.准备工作: 我们要建立一个文件夹,可以命名为my_det,op
转载
2024-09-18 16:06:30
106阅读
在机器学习中经常会遇到正负样本的问题,花了一点时间查找资料,基本上弄明白了一点到底是怎么回事,记录在这里以便以后查看,也希望能够帮助到有疑惑的人,当然也希望理解的比较透彻的人看到之后对于理解的不对的地方能够予以指点。首先我将这个问题分为分类问题与检测问题两个方面进行理解。在分类问题中,这个问题相对好理解一点,比如人脸识别中的例子,查到的资料中介绍的比较清楚的网址如下(http://st
转载
2024-01-10 16:36:31
269阅读
"MLK,即Machine Learning Knowledge,本专栏在于对机器学习的重点知识做一次梳理,便于日后温习,内容主要来自于《百面机器学习》一书,结合自己的经验与思考做的一些总结与归纳,本次主要讲解的内容是机器学习里的非监督学习经典原理与算法,非监督,也就是没有target(标签)的算法模型。"(欢迎关注微信公众号了解更多知识:SAMshare) IndexK-Mean聚类算
转载
2023-08-15 22:33:30
73阅读
CVPR2020数据集CVPR2020上开源的十个最有用的数据集,用数据来构建更好的人工智能,数据搬运工从来不应该缺席!下面就是十个数据集的分别解释:01FaceScape一个大规模高质量的3D人脸数据集,包括18760张高质量3D人脸模型,对938名志愿者实现20种表情采集,该数据训练可以实现对单张图像预测3D人脸的细节。适应于非商业开源项目。数据集下载地址:https://facescape.
论文地址:https://arxiv.org/pdf/1412.7062.pdf1 deeplabv1 的简介使用 DCNN 解决图像分割存在的问题1 下采样:增大感受野。但会导致分辨率的下降,丢失了细节信息2 CNN的空间不变性:根本是源于重复的池化和下采样。3 多个尺度上存在对象(在deeplabv2之后得以解决) deeplabv1的解决方法:1 使用空洞卷积解决下采样的问题:将最后两个池
样本不平衡问题如何解决1. 什么是样本不平衡问题?所谓的类别不平衡问题指的是数据集中各个类别的样本数量极不均衡。以二分类问题为例,假设正类的样本数量远大于负类的样本数量,通常情况下把样本类别比例超过4:1(也有说3:1)的数据就可以称为不平衡数据。
样本不平衡实际上是一种非常常见的现象。比如:在欺诈交易检测,欺诈交易的订单应该是占总交易数量极少部分;工厂中产品质量检测问题,合格产品的数量应该是远大
转载
2024-03-14 22:37:09
425阅读
一楼可以应用变量变换的方法,将不服从正态分布的资料转化为非正态分布或近似正态分布。常用的变量变换方法有对数变换、平方根变换、倒数变换、平方根反正玄变换等,应根据资料性质选择适当的变量变换方法。对数变换 即将原始数据X的对数值作为新的分布数据: X’=lgX 当原始数据中有小值及零时,亦可取X’=lg(X+1) 还可根据需要选用X’=lg(X+k)或X’=lg(k-X) 对数变换常用于(1)使服从
转载
2023-09-05 23:03:35
143阅读
导读一般来说,我们做工业场景的缺陷检测识别时,首先需要利用现有的缺陷数据集训练模型,之后利用训练好的模型做识别。但随着制作工业的提升,缺陷的数量越来越少,难以满足对深度学习对大样本数量的要求。本文提出了一种仅基于正样本训练的缺陷检测方法,无需缺陷数据和手动标注,也可以取得较好的缺陷检测效果。表面缺陷检测在工业生产中起着非常重要的作用,基于机器视觉的表面缺陷检测可以极大的提升工业生产的效率。随着近年
转载
2022-11-09 13:09:22
829阅读
# PYTHON 半监督 样本不均衡实现流程
## 概述
半监督学习是指利用少量标记样本和大量未标记样本进行模型训练,以减少标记样本的工作量。样本不均衡是指训练数据中不同类别的样本数量差异较大。本文将介绍如何使用Python实现半监督学习中的样本不均衡问题。
## 实现步骤
下面是整个实现流程的步骤,每一步都将详细说明需要做的事情和相应的代码:
步骤 | 说明
-|-
1. 数据准备 | 准
原创
2023-08-22 12:12:56
74阅读
统计学,风控建模经常遇到正态分布检验。正态分布检验在金融信贷风控建模中常用于变量校验,让模型具有统计学意义。正态分布检验在生物医药领域也有广泛应用。很多NCBI,Science,Nature等知名平台发布生物医药统计论文参考价值有限,很多论文发布者搞不清楚统计学基本原理,误用统计学检验方法或模型。这节课我先给大家介绍一下正态分布检验是什么,然后用python代码实现。欢迎各位同学学习我录制的更多相
转载
2024-01-11 00:31:16
208阅读
一、实验目的1.理解聚类的过程2.理解并掌握K-均值算法的过程3.理解PCA算法进行降维的原理和步骤二、实验内容及要求:1.实验数据:iris数据,一共150个数据,每个数据包含4个特征,假设样本类别未知,但已知类别数为3。2.实验要求1)采用PCA的方式将原始特征进行降维,要求降维后的特征能够保留原始特征80%以上的信息;2)将降维后的新特征在新的特征空间画出样本点;3)采用K-均值算法对降维后
转载
2024-03-30 09:03:36
35阅读
写在前面的话在聚类问题中,我们给定一个训练集,算法根据某种策略将训练集分成若干类。在监督式学习中,训练集中每一个数据都有一个标签,但是在分类问题中没有,所以类似的我们可以将聚类算法称之为非监督式学习算法。这两种算法最大的区别还在于:监督式学习有正确答案,而非监督式学习没有。比如上面这个训练集,非监督式学习有可能将它分成两类也可能是三类,到底哪种分类正确,因情况而定;有时候即便是给定了情况也不见得就
转载
2024-05-20 15:54:43
80阅读
一开始学习时我没有太关注正负样本的问题,我以为正样本就是标注好的GT box,然而学到后面发现有很多的区别正负样本的方法,我才知道自己理解错了。正例是用来使预测结果更靠近真实值的,负例是用来使预测结果更远离除了真实值之外的值的。看了好几篇博文之后我大概有了一些基础的理解,在分类问题中,对于狗这一类来说,所有标签为狗的图片都是狗类的正样本,其他的图片都是负样本,正负样本也就是所有图片都进入损失函数进
转载
2024-05-17 15:13:55
163阅读