无监督学习相对监督学习(输入进x,有对应的y),没有标注聚类k均值基于密度的聚类最大期望聚类降维潜语义分析(LSA)主成分分析(PCA)奇异值分解(SVD) k 均值(k-means)是聚类算法中最为简单、高效的,属于无监督学习算法核心思想:由用户指定k个初始质心(initial centroids),以作为聚类的类别(cluster),重
无监督学习一、 无监督学习(unsupervised learning)1. 典型例子:聚类(Clustering)2.无监督学习的重要因素二、 K均值聚类(K-means 聚类)1. K均值聚类算法第一步:初始化聚类质心第二步:把每个待聚类数据放入唯一一个聚类集合中第三步:根据聚类结果,更新聚类质心第四步:算法循环迭代,直到满足条件2. 聚类迭代结束条件3. K均值聚类算法的另一个视角:最小化
KNN是一种常见的监督学习算法,工作机制很好理解:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个“邻居”的信息来进行预测。总结一句话就是“近朱者赤,近墨者黑”。 KNN可用作分类也可用于回归,在分类任务中可使用“投票法”,即选择这k个样本中出现最多的类别标记
转载
2024-04-19 22:57:19
76阅读
机器学习按照方法来分类,可以分成四类,分别是:监督学习、无监督学习、半监督学习和强化学习。1 基本概念监督学习(supervised learning): 利用训练集数据对其进行训练得到相应的正确对应关系,从而测试集数据在得到的对应关系下进行运算得到相应的正确结果。无监督学习(unsupervised learning): 数据并不被特别标识,学习模型是为了推断出数据的一些内在结构。半监督学习:
转载
2024-05-29 15:29:08
51阅读
无监督算法简介就是依靠数据之间的相似度,形成数据的类别。(下图有些是网上扒的,如有侵权望告知,立删)层次聚类比如有7个数据点,A,B,C,D,E,F,G。我们采用数据的欧式距离作为相似度(距离越小越相似): 将数据分别两两计算相似度: 得到BC的距离最小,这样我们就得到一个新的集合或者说是类:(B,C)。这样我们下一次计算相似度时,只有6个元素了:A,(B,C),D,E,F,G。然后两两计算相似度
转载
2024-08-20 20:23:38
13阅读
一、深度学习引入1.各学习方法之间的联系SL、 SSL和UL是传统ML方法:DL提供了一个更强大的预测模型,可产生良好的预测结果;RL提供了更口快的学习机制,且更适应环境的变化;TL突破了任务的限制,将TL应用于RL中,能帮助RL更好地落实到实际问题。2.概念1.监督学习(Supervised learning,SL)向学习算法提供有标记的数据和所需的输出,对每一次输入,学习者均被提供了一个回应目
转载
2024-07-13 15:12:58
195阅读
机器学习的常用方法,主要分为有监督学习(supervised learning)和无监督学习(unsupervised learning)。简单的归纳就是,是否有监督(supervised),就看输入数据是否有标签(label)。输入数据有标签,则为有监督学习;没标签则为无监督学习。有监督学习监督学习是指数据集的正确输出已知情况下的一类学习算法。因为输入和输出已知,意味着输入和输出之间有一个关系,
转载
2024-06-12 21:41:30
94阅读
GAN网络(Generative Adversarial Networks),生成对抗网络,由lan Goodfellow在2014年提出,发表在NIPS会议(神经信息处理系统大会)上。第一次听说GAN网络就不明觉厉。其他网络都是对输入图像进行某种处理,得到某种特定的输出。而GAN网络居然可以“无中生有”,无论是去除马赛克,还是换脸,还是对灰度图像上色,都显得不可思议,怎么可能凭空产生多余的信息?
文章目录BERT是什么BERT调优句子(对)分类任务分类器预测中文分类实践下载中文预训练模型修改run_classifier.py训练预测扩展阅读 BERT是什么BERT是一种预训练语言表示的方法,在大量文本语料(维基百科)上训练了一个通用的“语言理解”模型,然后用这个模型去执行想做的NLP任务。BERT比之前的方法表现更出色,因为它是第一个用在预训练NLP上的无监督的、深度双向系统。无监督意味着
机器学习中存在着三类模型,有监督学习、无监督学习和半监督学习,他们有何区别呢?其实有无标签是区分监督学习与无监督学习的关键,这里的有无标签,指的是有没有事前确定标签。1.有监督学习有监督机器学习又被称为“有老师的学习”,所谓的老师就是标签。有监督的过程为先通过已知的训练样本(如已知输入和对应的输出)来训练,从而得到一个最优模型,再将这个模型应用在新的数据上,映射为输出结果。借此,模型就有了预知能力
引言命名实体识别是自然语言处理中一个非常基础的工作,是自然语言处理中关键的一个环节。监督学习是解决命名实体识别任务的一个基本手段,但标注数据的获取成本往往会比较高,本期PaperWeekly将带大家来看一下如何通过半监督或者无监督的方法来做命名实体识别任务。本期分享的4篇Paper Notes分别是:1、Building a Fine-Grained Entity Typing System Ov
模型评价的目的对于解决同一问题的不同模型,通过比较模型指标来比较模型之间的优劣,选取最优模型对于同一模型,通过比较模型指标来调整模型参数模型评价的基本思路评价机器学习模型的基本思维是把数据分为没有交集,且具有相同普遍性的训练集(Training Set)和测试集(Testing Set),这种做法被称为交叉验证(Cross Validation).其中,训练集用于训练模型,训练好的模型对测试集的数
总览之前我们讲的网络模型都是监督学习,这一讲我们要讲的是无监督学习。以下是本讲的总览无监督学习与监督学习最大的不同就是我们只有数据,没有任何多余的标注,我们要做的就是学习数据中隐藏的某些结构。而生成模型就属于无监督学习的一种生成模型生成模型的目标是给定训练数据,希望能获得与训练数据相同的新数据样本。我们的目标是找到训练数据的分布函数生成模型在很多场景有非常好的应用我们可以对生成模型进行分类,在本讲
转载
2024-09-12 08:54:24
242阅读
【论文笔记】Unsupervised Deep Image Stitching: ReconstructingStitched Features to Images摘要一、介绍二、相关工作2.1 基于特征的图像拼接2.2 基于学习的图像拼接2.3 深度单应方案三、无监督粗图像对齐3.1 无监督单应性3.2 拼接空间变换层四、无监督粗图像重建4.1 低分辨率图像重建分支4.2 高分辨率图像重建分支
转载
2024-04-15 10:31:28
218阅读
要说最近几年在深度学习领域最火的莫过于生成对抗网络,即 Generative Adversarial Networks(GANs)了。它是 Ian Goodfellow 在 2014 年发表的,也是这四年来出现的各种 GAN 的变种的开山鼻祖了,下图表示这四年来有关 GAN 的论文的每个月发表数量,可以看出在 2014 年提出后到 2016 年相关的论文是比较少的,但是从 2016 年,或者是 2
决策树(decision tree, DT)算法——监督分类
1、决策树(decision tree)算法决策树(decision tree)算法是根据给定的训练数据集构建一个决策树模型,使它能够对实例进行正确地分类,本质是从训练集中归纳出一组分类规则。决策树生成方法包括ID3、C4.5及CART等。优点:易于理解和解释,决策树可以可视化。几乎不需要数据
转载
2024-05-11 20:44:56
187阅读
首先来一个大概的定义:监督学习:通过训练让机器自己找到特征和标签之间的联系(注:也就是学习的训练集包含输入和输出,得到了最优参数模型之后 ,新来的数据集在面对只有特征没有标签的情况下时,可以判断出标签)无监督学习:训练数据中只有特征没有标签,输入数据没有被标记,也没有确定的结果。样本数据类别未知,需要根据样本间的相似性对样本集进行分类。(注:不一定"分类",没有训练集,旨在寻找规律性,不予以某种预
转载
2024-06-09 19:16:41
163阅读
背景 今天介绍下SimCLR,也是Hinton老爷子在今年提出的工作。首先介绍下为什么下一代神经网络需要无监督对比学习。目前整个人工智能行业的落地,其实都依赖于监督学习模式,无论是OCR、ASR、TTS、ImageDetection,如果没有大量的标注,是很难训练出商业化程度的模型的。这个模式需要被打破,因为世界上存在太多的未知场景,完全依赖人肉标注是不行的。所以未来无监督学
转载
2024-04-08 22:24:17
55阅读
这篇文章确实写的不错,总结无监督学习的方法如下:1)自编码器2)聚类学习3)生成对抗网络4)设计不需要标签的无监督学习任务,直接从无标签的数据中学习模型视觉表征:通过解决拼图问题来进行无监督学习确实是一个聪明的技巧。将图像分割成了拼图,并且训练深度网络来解决拼图问题。视觉表征:通过图像补丁和布局来进行无监督学习也是一个聪明的技巧。让同一幅图像上的两个补丁紧密分布。这些补丁在统计上来讲是同一个物体。
Fully Convolutional Networks for Semantic Segmentation将当前分类网络(AlexNet,VGGNet和GoogleNet)修改为全卷积网络,通过对分割任务进行微调,将它们学习的表征转移到网络中。然后,定义了一种新的架构,将深度、粗糙的网络层的语义信息和浅的、精细的网络层的表征信息结合起来,来生成精确和详细的分割。即在上采样的每一个阶段通过融合(简
转载
2024-07-12 04:39:02
55阅读