李宏毅-Network Compression课程笔记 一、总结 一句话总结: 就是网络压缩,把大的网络结构压缩成小的网络结构,便于资源少的设备使用 1、为什么要做迁移学习? 迁移到手机、机器人、手表等Resource-li
转载
2020-09-30 08:46:00
98阅读
2评论
一、方法总结 Network Pruning Knowledge Distillation Parameter Quantization Architecture Design Dynamic Computation 二、Network Pruning 模型通常是过参数的,即很多参数或者neuron
原创
2021-06-06 19:51:52
664阅读
P.S. 本次将第三章 CNN 讲解有关内容和之前看的吴恩达深度学习 - 卷积神经网络专项课程的内容结合在一起进行总结=====================================================一、 概念导入:边缘检测 垂直边缘 和 水平边缘。 如下图所示,一个 6 * 6 的灰度图像,构造一个 3 * 3 的矩阵( 在CNN中通常称为 filter 过滤器
转载
2024-03-08 22:30:05
52阅读
文章目录NETWORK COMPRESSIONNetwork PruningKnowledge Distillation(知识蒸馏)Parameter QuantizationArchite
原创
2022-07-13 10:05:46
110阅读
文章目录【系列文章】【简要说明】【视频分享】【作业详情】【调参记录】【Simple Baseline:1.96993】【Medium Baseline:1.15678】【Strong Baseline:0.92619】【Boss Baseline:0.81456】【总结讨论】【资源链接】【参考文献】【写在最后】 【系列文章】【专栏:深度解析李宏毅机器学习2023作业】【简要说明】1、2023年春
转载
2024-02-07 10:33:12
259阅读
原始bert是干嘛的bert就是transformer的encoder输入seq,输出seq先决定盖哪几个,再决定怎么盖展示原始的bert然后输出输出的就是一个向量,里面就是词典所有的单词的概率(是吗)里面的linear怎么做的(小参数)然后跟我那个真实值,最小化,(就是一个分类问题),训练的时候,bert里面的参数和我们那个liner的参数一起训练。工作2(好像没啥用)除了上述的mask之外,还
转载
2024-04-29 22:06:10
26阅读
Why CNN for Image当我们直接用一般的fully connected的feedforward network来做图像处理的时候,参数.
原创
2022-07-13 10:06:27
136阅读
文章目录什么是RNN?例子RNN架构其他结构的RNNdeepRNNElman Network & Jordan NetworkBidirec
原创
2022-07-13 10:14:58
215阅读
# 学习李宏毅的NLP课程之旅
在当今的科技世界中,自然语言处理(NLP)已经成为一个非常热门的领域。李宏毅教授以其清晰的讲解风格和深入的课程设置,成为了许多学习者的首选。本文将为刚入行的小白提供一步一步的指导,帮助你顺利进行李宏毅教授的NLP课程。
## 学习流程
首先,让我们来看看学习这一课程的大致流程。以下是整个学习的步骤及其描述:
| 步骤 | 描述 |
|------|-----
原创
2024-09-19 04:43:53
71阅读
SVM组成 Hinge Loss讲解 loss function不可微分,所以换成另一个函数。可以微分。输入x输出正负1。 g(x)里边有f(x)函数。并且y^乘以f(x)是横轴。纵轴为loss值。理想下越往右loss越小。square loss就是做差求平方,但是用到binary classfity上是不合理的。 理想的loss函数。sigmoid + square loss函数下边的计算公式
转载
2024-04-02 09:49:24
57阅读
李宏毅2020 ML/DL补充Structured Learning Structured SVM【李宏毅2020 ML/DL】补充:Structured Learning: Structured SVM我已经有两年 ML 经历,这系列课主要用来查缺补漏,会记录一些细节的、自己不知道的东西。本次笔记补充视频 BV1JE411g7XF 的缺失部分。在另一个UP主上传的2017课程BV13x411v7
李宏毅 diffusion 是一种基于深度学习的生成模型,广泛应用于图像生成、去噪等领域。本文将详细记录如何解决与“李宏毅 diffusion”相关的问题,从环境预检到配置调优及迁移指南,确保您能顺利部署这一技术。
### 环境预检
首先,我们需要确认环境的兼容性,这里使用四象限图展示兼容性分析。
```mermaid
quadrantChart
title 四象限图
x-ax
文章目录介绍How to sum over all the alignmentsTraining第一项第二项Testing (Inference, decoding)小结参考资料 介绍 公式输入请参考:在线Latex公式 上节提到解决alignments有四个问题: 如何穷举所有的alignments:1. Enumerate all the possible alignments 如何累加所有
转载
2023-12-06 15:13:12
159阅读
Lecture 6: Brief Introduction of Deep Learning 本节课主要围绕Deep Learing三步骤:(1)function set(2)goodness of function(3)pick the best function 1.function setNeuron之间采用不同的连接方式,就会得到不同的
转载
2024-01-16 15:05:48
228阅读
导语meta-learningmeta-learning的步骤什么叫一组learning algorithm如何评价一个F的好坏meta learning vs machine learning怎么找最好的learning algorithmbenchmarkomniglot如何使用当前的方法MAML算法例子toy examleomniglot& mini-imageNet实际实现在翻译
转载
2024-05-11 20:18:36
120阅读
台大李宏毅Machine Learning 2017Fall学习笔记 (13)Semi-supervised Learning本博客参考整理自: 半监督学习的训练数据,有一部分是标注数据,有一部分是无标注数据。 Transductive learning(直推学习)和Inductive learning(归纳学习)都可算是半监督学习,区别在于前者的无标注数据是测试数据(除去label),而后
转载
2024-02-04 21:55:34
157阅读
课程链接:http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML20.html 要做这个作业的话需要一定的高数、线代的基础,而且尽量要会使用python的numpy模块。这篇文章大体还是按着baseline走的。必要的前提条件1.记得要把numpy、pandas、csv模块给安装好(网上有很多教程,找适用于你的开发环境的就好)。 2.学习一下numpy的使用:
转载
2024-06-17 16:04:34
151阅读
李宏毅老师的机器学习课程和吴恩达老师的机器学习课程都是都是ML和DL非常好的入门资料,在YouTube、网易云课堂、B站都能观看到相应的课程视频,接下来这一系列的博客我都将记录老师上课的笔记以及自己对这些知识内容的理解与补充。(本笔记配合李宏毅老师的视频一起使用效果更佳!)ML Lecture 4:Classification:Probabilistic Generative Model在这堂课中
转载
2023-12-13 21:14:42
70阅读
目录李宏毅机器学习第五周—sequence to sequence应用Syntactic Parsing(语法分析)Multi-label Classification(多标签分类)Object Detection(目标检测)Seq2Seq结构1.encoder为什么在Self-attention和Fully Connected Layer之后都有一个“Add & Norm”单元?2.de
转载
2024-01-12 19:07:55
129阅读