介绍CNN中的经典网络,LeNet-5,AlexNet,VGG。介绍残差网络,并阐述对残差块的理解。讲解1x1卷积、Inception的作用与本质。
作者:szx_spark1. 经典网络LeNet-5AlexNetVGGNg介绍了上述三个在计算机视觉中的经典网络。网络深度逐渐增加,训练的参数数量也骤增。AlexNet大约6000万参数,VGG大约上亿参
转载
2024-01-12 11:59:17
56阅读
目录1 单变量的线性回归1.1 读取数据pd.read_csv()函数创建DataFrame数据帧1.2 数据处理Dataframe.insert()函数变量赋值初始化df.shape()df.iloc[]1.3 梯度下降代价函数公式代价函数公式实现矩阵转置.T和power()梯度下降算法运算结果2 多变量线性回归2.1 数据处理DataFrame.mean()函数2.2 批量梯度下降算法 1
转载
2024-08-19 21:21:26
80阅读
写在前面:文章只是为了记录学习课程的整个过程,方便以后查漏补缺,方便找到对应章节,希望看到这篇文章的同学能够认真的看一遍视频教程,会有很大收获!下一篇:2022吴恩达机器学习课程——第二课(神经网络) 文章目录第一周一、监督学习与无监督学习二、线性回归三、梯度下降第二周一、向量化二、特征缩放第三周一、逻辑回归二、训练逻辑回归模型三、逻辑回归中的梯度下降四、正则化 第一周一、监督学习与无监督学习监督
转载
2024-04-22 19:28:12
152阅读
@多变量线性回归和特征缩放前言 斯坦福大学吴恩达老师的机器学习课程几乎是每位热爱人工智能领域同学的必修课。网上虽然有许多基于python实现的代码,但大多使用python交互模式解释器ipython实例讲解。本人基于自己的理解采用pycharm提供源代码及个人理解,部分代码可能参考他人代码部分,如有侵权请私信我一、问题探讨参考视频4.2-4.3,多变量线性回归需要我们根据多个特征数据,建立模型
转载
2024-01-04 14:13:24
270阅读
本篇博客主要讲解,吴恩达机器学习第三周的编程作业,作业内容主要是利用逻辑回归算法(正则化)进行二分类。实验的原始版本是用Matlab实现的,本篇博客主要用Python来实现。 目录1.实验包含的文件2.使用逻辑回归算法(不带正则化)进行二分类3.逻辑回归算法(不带正则化)进行二分类完整项目代码4.利用逻辑回归算法(带正则化)进行二分类5.逻辑回归算法(正则化)进行二分类完整项目代码1.实
转载
2023-12-13 16:40:23
1062阅读
吴恩达-机器学习系列课程-Matlab作业ex1 Linear RegressionwarmUpExercise.mplotData.mcomputeCostgradientDescentfeature normalizationcomputeCostMultigradientDescentMultinormalEqnex2 Logistic RegressionplotDatasigmoidc
转载
2024-03-02 07:34:24
105阅读
ex I-代码实现单变量线性回归在本部分的练习中,您将使用一个变量实现线性回归,以预测食品卡车的利润。假设你是一家餐馆的首席执行官,正在考虑不同的城市开设一个新的分店。该连锁店已经在各个城市拥有卡车,而且你有来自城市的利润和人口数据。您希望通过使用这些数据来帮助您扩展到下一个城市;Step1: Prepare datasets按照吴老师上课时候所说的来准备数据,取最后一列为目标向量,剩余列为输入矩
转载
2023-10-09 17:01:09
1294阅读
特别说明:图片来源于吴恩达老师视频截图。“深度学习”指的是训练神经网络,有时候规模很大。那么,神经网络究竟是什么呢?先从一个房价预测的例子开始。假设有一个六间房屋的数据集,已知房屋的面积(单位是平方英尺或平方米)、房屋价格,想要找到一个函数,根据房屋面积预测房价的函数。如果你懂线性回归,你可能会说,“好吧,用这些数据来拟合一条直线”,于是你可能会得到下面这样一条直线。但奇怪的是,你可能也知道,价格
转载
2023-08-02 21:45:05
100阅读
特别说明:图片来源于吴恩达老师视频截图。 附文本 欢迎回来,通过本周的视频课程你会学到,如何实现一个神经网络。在我们深入学习技术细节之前,通过本视频,我想带你快速地了解一下,本周课程中你会学习哪些内容。 上周,我们讨论了logistic回归,一起了解了这个模型,和下面这个流程图的联系。这里面,你需要输入特征x,参数w和b【此处w=[■(w
转载
2023-09-27 20:23:08
101阅读
5-1 Basic Operations —— 基本操作 Octave是一种很好的原始语言(prototyping language),使用Octave 你能快速地实现你的算法,剩下的事情,你只需要进行大规模的资源配置,你只用再花时间用C++或Java这些语言把算法重新实现就行了。开发项目的时间是很宝贵的,机器学习的时间也是很宝贵的。所以,如果你能让你的学习算法在Octave上快速的实现
转载
2023-11-13 22:08:32
52阅读
01什么是机器学习?Machine Learning(机器学习)是研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎。在过去的十年中,机器学习帮助我们自动驾驶汽车,有效的语音识别,有效的网络搜索,并极大地提高了人类基因组的认识。机器
转载
2024-01-02 11:12:21
42阅读
吴恩达(1976-,英文名:Andrew Ng),华裔美国人,是斯坦福大学计算机科学系和电子工程系副教授,人工智能实验室主任。吴恩达是人工智能和机器学习领域国际上最权威的学者之一。吴恩达也是在线教育平台Coursera的联合创始人(with Daphne Koller)。 2014年5月16日,吴恩达加入百度,担任百度公司首席科学家,负责百度研究院的领导工作,尤其是Baidu Brain计划。
转载
2023-12-04 18:59:32
177阅读
新智元报道 编辑:肖琴【导读】完全用Python完成吴恩达的机器学习课程是怎样一种体验?本文作者表示:完全可以!而且你不需要成为Python专家,只需要有良好的数学基础。“吴恩达的Coursera机器学习课程可以完全用Python完成!”昨天,Reddit论坛的机器学习看板出现这样一条热帖。可以说,吴恩达(Andrew Ng)的机器学习课程是很多人、尤其是中国学生进入机器学
转载
2024-06-18 11:52:31
115阅读
文章目录1.经典的CNNLeNet-5:AlexNetVGG-162.ResNetsResidual block残差块Residual Network残差网络3.ResNet表现好的原因4. 1x1卷积1x1卷积1x1卷积应用5. Inception NetworkInception Network MotivationInception Network的计算成本问题Inception Netw
转载
2024-05-31 10:21:42
56阅读
文章目录神经网络综述激活函数sigmoid 函数tanh 双曲正切函数ReLu 修正线性单元Leaky ReLu神经网络的梯度下降 Lesson1 Week3 partⅠ-Ⅴ神经网络综述吴老师在课程中,举了一个最简单的神经网络示例,如下图所示:宏观把握 神经网络的层数:2 层,包括中间的隐藏层和输出层,输入层可以视为第 0 层。 输入层:每个数据样本包含有 3 个特征。输入层的数据 隐藏层:有
转载
2023-08-01 21:01:47
290阅读
文章目录Chapter 5 : Octave 教程5.1 基本操作5.2 移动数据5.3 计算数据5.4 绘图数据5.5 控制语句:for,while,if语句5.6 向量化5.7 工作和提交的编程练习 写在前面的话:这一章我是直接ctrl+c+v 这里的 。因为我认为此时学习2011年的Octave教程意义不大,语言风格偏之前学的MATLAB,没有必要再自己整理一遍。现在python或许才是第
转载
2023-11-20 10:29:23
106阅读
PCA求投影的垂直距离,线性回归求y轴距离 ...
转载
2021-07-13 09:08:00
154阅读
2评论
We investigate the use of deep neural networks for the novel task of class generic object detection. We show that neural networks originally designed
原创
2021-07-08 11:29:22
228阅读
大家好!我是louwill。吴恩达老师2022年机器学习专项课(Machine Learning Specialization)上周全新来袭,课程本身并不是新课,与10年前的机器学习专项课相比,编程语言用Python代替了此前的Octave,主要定位于机器学习入门与初学者。Machine Learning Specialization主要包括3门课:监督机器学习:回归与分类高级学习算法无监督学习,
转载
2023-12-13 19:15:29
66阅读
文章目录课程摘要What is neural networkSimple neural networkMultiple neural networkSupervised leaning for Nenural NetworkStructured and Unstructured dataWhy is Deep Learning taking off深度学习过程 课程摘要从这门课中我们可以学到:神
转载
2023-09-03 11:45:46
126阅读