本文目录前言get知识第一章第二章第三章第四章前言我本不是爱读书,只是单纯的要学知识,更直白点来说是学技能,因为不想再看那些几重积分什么的,计算计算,从头到尾都是计算。
原创
2021-09-14 17:39:33
444阅读
感知机 (perceptron)
基本假设:训练数据是线性可分的。
适用问题:二类分类。
模型分类:监督学习模型、非概率模型、线性模型、参数化模型、判别模型。
模型: f ( x ) = s i g n ( w ⋅ x + b ) f(x) = sign(w·x+b) f(x)=sign(w⋅x+b),其中 w ∈ R n w \in R^n w∈Rn称为权值, b ∈ R b \in R b∈
原创
2021-08-26 14:32:48
161阅读
感知机 (perceptron)基本假设:训练数据是线性可分的。适用问题:二类分类。模型分类:监督学习模型、非概率模型、线性模型、参数化模型、判别模型。模型:f(x)=sign(w⋅x+b)f(x) = sign(w·x+b)f(x)=sign(w⋅x+b),其中w∈Rnw \in R^nw∈Rn称为权值,b∈Rb \in Rb∈R称为偏置;对应于特征空间中的分离超平面w⋅x+b=0w·x+b=0w⋅x+b=0。损失函数:L(w,b)=−∑xi∈Myi(w⋅xi+b)L(w,b) = -\sum_
原创
2022-01-11 13:46:00
80阅读
【补充说明】书中没有区分“梯度下降法”和“最速下降法”,但实际上两者是存在区别的。算法A.1的梯度下降法实际上是最速下降法。
梯度下降法和最速下降法在确定步长时,我们有两种思路:一种是依据瞬时变化率计算步长,在距离极值点较远时,步长取得更大一些,使算法收敛更快;而当距离极值点较近时,步长取得更小一些,避免在极小值点产生震荡;另一种是依据一维搜索计算步长,即在每次确定迭代方向后,直接移动到当前方向的
原创
2022-01-23 14:49:25
80阅读
深度之眼长期招募人工智能兼职讲师,年薪可达30W,文末看招聘详情事半功倍的啃书姿势内容分以下六个部分:一、我的学习历程(不喜欢听啰嗦的可以从第二部分开始)二、学习《统计学习方法》遇到的困难...
转载
2022-01-11 15:21:41
42阅读
虽然没有上过大学,但是学技术的经历好像重新上了大学一样。学习的心态还有学习的方法都要一步步积累而来。虽然很辛苦,但是好像闯关一样,一关一关的过去。艰难和困苦都是暂时的。只要踏踏实实的做好自己的事情,有计划,静静的发育。总会有成长为大树的一天。 过好当下,莫问前程。
原创
2017-01-21 19:05:54
419阅读
【补充说明】书中没有区分“梯度下降法”和“最速下降法”,但实际上两者是存在区别的。算法A.1的梯度下降法实际上是最速下降法。梯度下降法和最速下降法在确定步长时,我们有两种思路:一种是依据瞬时变化率计算步长,在距离极值点较远时,步长取得更大一些,使算法收敛更快;而当距离极值点较近时,步长取得更小一些,避免在极小值点产生震荡;另一种是依据一维搜索计算步长,即在每次确定迭代方向后,直接移动到当前方向的极值点(驻点),从而避免在当前方向上的反复震荡。第一种依据瞬时变化率计算步长的方法,就是梯度下降法;第二种依
原创
2021-08-26 10:59:20
104阅读
事半功倍的啃书姿势内容分以下六个部分:一、我的学习历程(不喜欢听啰嗦的可以从第二部分开始)二、学习《统计学习方法》遇到的困难三、 在学习过程中碰过的壁四、最后解决问题的方法五、学习心得以及对后来的学习者的建议01我的学习历程简单介绍一下我的学习路程,一开始入门机器学习,觉得大多数入门的通病都是漫天的去网上找贴吧找资源,然后网盘保存了一大堆资料,每个吃一点不断的遴选符合自己口味,但又茫然不确定自己选
转载
2021-12-31 15:26:42
67阅读
感知机模型对数据的要求:训练数据集中需存在某个超平面能够将数据集的正实例点和负实例点完全正确地划分到超平面的两侧,即训练数据集是线性可分的。因为只有当训练数据集是线性可分时,感知机学习算法才是收敛的;如果训练数据集线性不可分,则感知机学习算法不收敛,迭代结果会发生震荡。当训练数据集线性不可分时,可以使用线性支持向量机。感知机模型的学习过程:依据训练数据集求得感知机模型,即求得模型参数 www 和 bbb。感知机模型的预测过程:通过学习得到的感知机模型,计算新的输入实例所对应的输出类别。感知机模型的类别
原创
2021-08-26 14:31:39
163阅读
面试官手把手带你刷题AI岗位面试题 详解+训练在准备应聘的过程中,大部分同学关注点都在自己的技术水平以及项目经验是否能够比过其他人。但往往忽略了一点,你会的和你在面试中能完全讲清楚是两码事,如果不提前梳理好思路,组织好语言,那么在面试过程中一定会手忙脚乱。无论是职场新人还是技术大拿,不懂面试技巧,抓不到面试官的重点,结果总是功亏一篑的。在程序员求职过程中,简历筛选、笔试、面试是必须翻越的三座大山。
转载
2023-08-14 20:45:01
67阅读
当我们谈到计算机视觉的时候,最先想到的一定就是图像分类了,而要说其中比较实际,且极具挑战的那就是目标检测。这是因为,目标检测比分类任务更加的复杂。比如无人驾驶,就是在车上安装目标检测系统,就好比人的眼睛一样,可以准确的对障碍物做出判断。 01实 时如果要说实现目标检测的算法中那种好,我一定推荐你学YOLO。因为用YOLO处理图像更简单、更直接。YOLO是采用一个CNN网络来实现检测的,是
原创
2022-12-27 17:09:52
115阅读
21.1 PageRank的定义【推荐阅读】拓扑:硬核科普:什么是拓扑? - 中科院物理所的文章 - 知乎【补充说明】网络拓扑结构在这里可以理解为网页之间的拓扑结构。页面即结点,超链接即连接结点的边,拓扑结构即页面和超链接的结构关系。【补充说明】随机矩阵,即满足所有元素非负且矩阵中每一列的元素之和为1的矩阵。(书中P. 356)PageRank基本定义求PageRank值(原生Python实现)import numpy as npdef pagerank_basic(M, tol=1e-8,
原创
2021-08-26 10:58:31
184阅读
8.1.1 提升方法的基本思路PAC 学习框架假设输入空间是 X∈Rn\mathcal{X} \in R^nX∈Rn,输入 x∈Xx \in \mathcal{X}x∈X 表示实例的特征向量。例如,每个实例都是一个人,X\mathcal{X}X 表示所有实例点的集合。
原创
2022-01-15 14:26:10
74阅读
21.1 PageRank的定义【补充说明】网络拓扑结构在这里可以理解为网页之间的拓扑结构。页面即结点,超链接即连接结点的边,拓扑结构即页面和超链接的结构关系。【补充说明】随机矩阵,即满足所有元素非负且矩阵中每一列的元素之和为1的矩阵。(书中P. 356)
PageRank基本定义求PageRank值(原生Python实现)import numpy as npdef pagerank_basic
原创
2022-01-23 14:52:14
309阅读
8.1.1 提升方法的基本思路PAC 学习框架假设输入空间是 X∈Rn\mathcal{X} \in R^nX∈Rn,输入 x∈Xx \in \mathcal{X}x∈X 表示实例的特征向量。例如,每个实例
原创
2021-08-26 14:09:53
210阅读
感知机模型对数据的要求:训练数据集中需存在某个超平面能够将数据
原创
2022-02-05 15:17:34
109阅读
李航《统计学习方法》是机器学习必读的经典书籍。无论是人工智能专业的导师们给学生所列的必读书单,还是网上各种人工智能推荐书单,其中一定少不了一本李航的《统计学习方法》。然而,这本经典教材对刚...
转载
2021-10-26 14:09:47
442阅读
k 近邻法的学习过程:没有显示的学习过程。k 近邻法(用于分类)的预测过程:在训练数据集中找到与新的输入实例最邻近的 k 个实例,这 k 个实例的多数属于某个类,就把该输入实例分为这个类。k 近邻法的类别划分:用于解决分类或回归问题的监督学习模型非概率模型:模型取函数形式线性模型:模型函数为线性函数非参数化模型:假设模型参数的维度不固定判别模型:由数据直接学习决策函数 f(X)f(X)f(X)k 近邻法的主要优点:精度高、对异常值不敏感、无数据输入假定。k 近邻法的主要缺点:计算复杂度
原创
2021-08-26 14:31:33
104阅读
11.1 概率无向图模型【补充解释】成对马尔可夫性可以概括为:概率无向图模型中,任意两个没有边连接的结点是相互独立的。【补充解释】局部马尔可夫性可以概括为:概率无向图模型中,任意两个没有边直接相连的结点是相互独立的。【补充解释】全局马尔可夫性可以概括为:概率无向图模型中,任意两个没有边直接相连的集合是相互独立的。11.2 条件随机场的定义与形式【补充解释】条件随机场的定义中,
原创
2021-08-27 10:36:04
215阅读
支持向量机的类别划分:用于解决二类分类问题的监督学习模型非概率模型线性模型&非线性`
原创
2021-08-27 14:04:58
890阅读