参考博客:变形卷积核、可分离卷积?卷积神经网络中十大拍案叫绝的操作。pytorch微调网络Inception3 CNN网络架构演进:从LeNet到DenseNet1、inception的多分支卷积:最初的Inception的卷积如下:其是对输入进行多个卷积处理,往往比单一卷积核处理要好,然后再把处理后特征进行cat()操作。由于其计算量大,参数多。后来进行改进了,添加了1x1卷积核来减少
转载
2024-01-10 15:17:30
42阅读
兄弟萌,我咕里个咚今天又杀回来了,有几天时间可以不用驻场了,喜大普奔,终于可以在有网的地方码代码了,最近驻场也是又热又心累啊,抓紧这几天,再更新一点的新东西。今天主要讲一下非监督学习,你可能要问了,什么是非监督学习,我的理解就是不会给样本标签的,它本质上是一个统计手段,在没有标签的数据里可以发现潜在的一些结构的一种训练方式。这个可以用来干什么,举个例子,在工业场景瑕疵检测的运用中,由于良品的数量远
1.理解分类与监督学习、聚类与无监督学习。简述分类与聚类的联系与区别。分类指监督学习,就是按照某种标准给对象贴标签,再根据标签来区分归类。聚类是指事先没有“标签”而通过某种成团分析找出事物之间存在聚集性原因的过程。指无监督学习,是指根据“物以类聚”的原理,将本身没有类别的样本聚集成不同的组,这样的一组数据对象的集合叫做簇,并且对每一个这样的簇进行描述的过程。区别是,分类是事先定义好类别 ,聚类则没
2.2 深度学习基础及数学原理深度学习并没有想象的那么难,甚至比有些传统的机器学习更简单。所用到的数学知识也不需要特别的高深,本章将会一边讲解深度学习中的基本理论,一边通过动手使用PyTorch实现一些简单的理论,本章内容很多,所以只做一个简短的介绍2.2.1 监督学习和无监督学习 监督学习、无监督学习、半监督学习、强化学习是我们日常接触到的常见的四个机器学习方法:监督学习:通过已有的训练样本(即
转载
2023-10-20 18:13:46
97阅读
k-means聚类算法k-means算法属于无监督学习的一种聚类算法,其目的为:在不知数据所属类别及类别数量的前提下,依据数据自身所暗含的特点对数据进行聚类。对于聚类过程中类别数量k的选取,需要一定的先验知识,也可根据“类内间距小,类间间距大“(一种聚类算法的理想情况)为目标进行实现。需要用到sklearn库,scikit-learn是Python的一个开源机器学习模块,它建立在NumPy,Sci
转载
2024-01-10 14:58:38
109阅读
作者 | 程明明 编辑 | CVer
大规模无监督语义分割
引言语义分割是计算机视觉领域中被广泛关注的一个研究方向,其旨在针对图像中每一个像素进行分类。由于语义分割的固有挑战,目前大多数工作都关注于多样性受限(例如几十类)且数据规模受限场景的语义分割。尽管许多方法在这些受限的场景中取得了显著的效果,但是面对现实世界中常用的几百上千类物体规模带
转载
2024-04-20 20:37:46
56阅读
迄今为止,前四篇文章已经介绍了分词的若干思路,其中有基于最大概率的查词典方法、基于HMM或LSTM的字标注方法等。这些都是已有的研究方法了,笔者所做的就只是总结工作而已。查词典方法和字标注各有各的好处,我一直在想,能不能给出一种只需要大规模语料来训练的无监督分词模型呢?也就是说,怎么切分,应该是由语料来决定的,跟语言本身没关系。说白了,只要足够多语料,就可以告诉我们怎么分词。 看上去很完美,可
转载
2024-05-13 12:09:15
85阅读
编译 | reason_W编辑 | 明 明【AI 科技大本营导读】近日,OpenAI 在其官方博客发文介绍了他们最新的自然语言处理(NLP)系统。这个系统是可扩展的、与任务无关的,并且在一系列不同的 NLP 任务中都取得了亮眼的成绩。但该方法在计算需求等方面仍存在改进的空间。下面我们来看他们的博文:我们即将发布一个可扩展的,与任务无关的自然语言处理系统,该系统在一系列不同的语言任务上都取得了目前最
转载
2024-05-21 14:24:52
37阅读
本文回顾了一些常见的半监督算法,随后介绍了作者在 NIPS 2017 展示的 Mean Teacher 项目。 Mean Teacher 的论文地址:https://arxiv.org/abs/1703.01780;Mean Teacher 的 GitHub 地址:https:/
转载
2023-12-12 14:10:20
49阅读
神经网络也能进行非监督学习, 只需要训练数据, 不需要标签数据. 自编码就是这样一种形式. 自编码能自动分类数据, 而且也能嵌套在半监督学习的上面, 用少量的有标签样本和大量的无标签样本学习.这次我们还用 MNIST 手写数字数据来压缩再解压图片.然后用压缩的特征进行非监督分类.训练数据自编码只用训练集就好了, 而且只需要训练 training data 的 image, 不用训练 labels.
转载
2024-02-06 20:58:01
89阅读
用Pytorch进行图像分类(对一张猫和一张鱼的图片进行区分)传统挑战1、首先需要数据要想有效地使用深度学习技术,需要较大量的数据来训练神经网络,让神经网络学习并记忆他们的特征。所以我们需要很多鱼和猫的图片 **监督学习和无监督学习的区别有监督学习必须要有训练集和测试样本。在训练集中找规律,而对测试样本使用这种规律。非监督学习没有训练集,只有一组数据,在该数据集中寻找规律有监督学习的方法就是识别事
转载
2023-09-05 11:14:05
184阅读
Pytorch:深度学习基础及数学原理监督学习和无监督学习常见机器学习方法:监督学习:通过已有的训练样本(即已知数据及对应的输出)去训练得到一个最优模型,再利用这个模型将所有的输入映射为相应的输出无监督学习:没有已训练样本,需要对数据进行建模半监督学习:在训练阶段结合大量未标记的数据和少量的标签数据。使用训练集训练的模型在训练时更为准确强化学习:设定一个回报函数,通过这个函数来确认是否与目标值越来
转载
2023-11-07 09:26:00
103阅读
4章 机器学习基础4.1 三类机器学习4.2 机器学习术语4.3 评估模型4.4 数据预处理和特征工程4.4 过拟合和欠拟合4.5 机器学习模型基本设计流程 4.1 三类机器学习1. 有监督学习:有标签数据的学习(需要得到的学习结果为具体的、可表示的、可描述的)分类问题回归问题分割问题识别问题2. 无监督学习:没有标签数据的学习(对数据进行整理,归类寻找特征)聚类问题降维问题3. 强化学习4.2
转载
2023-08-13 19:18:44
98阅读
1、人工智能: 弱人工智能:特定任务(语言处理领域-谷歌翻译) 强人工智能:类似人类 超人工智能:超越人类2、机器学习
转载
2024-04-10 22:09:34
35阅读
1 无监督学习利用无标签的数据学习数据的分布或数据与数据之间的关系被称作无监督学习。 有监督学习和无监督学习的最大区别在于数据是否有标签 无监督学习最常应用的场景是聚类(clustering)和降维(DimensionReduction)2 聚类(clustering)聚类(clustering),就是根据数据的“相似性”将数据分为多类的过程。 评估两个不同样本之间的“相似性” ,通常使用的
无监督学习(弱监督学习)让模型对输入的数据进行特征提取,从而实现无标签学习(无监督学习) 本质是编码,解码的过程。让模型在卷积编码(下采样)、卷积解码(上采样)的过程中。自我总结特征目前常用于图像分割 (ps:图像分割又分为三种:普通分割、 语义分割、实例分割。此处的无监督学习现用于普通分割)编码解码器的结构,可以类似为一种无监督神经网络,每层结构类似(顺序不能变): 卷积 + BtachNorm
简单介绍在众多聚类算法中,K-Means 算得上是其中一个经典的算法之一了,它属于无监督学习成员的er import KMeansimg = cv2.
原创
2022-06-27 15:42:54
262阅读
结巴分词系统中实现了两种关键词抽取法,一种是TF-IDF关键词抽取算法另一种是TextRank关键词抽取算法,它们都是无监督的算法。以下是两种算法的使用:#-*- coding:utf-8 -*-
from __future__ import unicode_literals
import jieba.analyse
import jieba
s='gStore 是一个基于图的 RDF 数据管理
转载
2024-09-23 12:52:59
46阅读
无监督图像分类技术1.基于深度学习参考论文:A survey on Semi-, Self- and Unsupervised Techniques in Image Classification1.1 目标leverage unlabeled data in numerous ways:semi-supervisedself-supervisedweakly-supervised or metr
转载
2024-03-06 08:06:29
85阅读
分词算法中,一般都需要一个词典,但这些词典往往很难覆盖所有的词,特别是在一些专业领域,甚至有超过40%的词都不在词典里面,这样首先就需要“学习”大量的新词,否则分词准确性很难提高,进一步的,有研究就干脆不要词典了,由算法自动从大量的语料中学得一个词典,这就是统计分词,或者成为无字典分词。一般就只预设一个小规模的词典,
转载
2024-05-06 19:18:52
52阅读