机器学习三步骤:
1.选择合适的模型 2.模型评估(损失函数) 3.最佳模型(梯度下降)

回归模型(监督学习)

  • 线性回归模型
  • 一元线性回归
  • 多元线性回归
  • 非线性回归模型
  • 最小二乘法
  1. 定义
  • 线性回归:给定数据集D=回归模型 归一化 回归模型的步骤_机器学习,其中回归模型 归一化 回归模型的步骤_线性回归_02.“线性回归”(linear regression) 试图学得一个线性模型以尽可能准确地预测实值输出标记。
  • 线性回归是一种线性模型,它假设输入变量x和单个输出变量y之间存在线性关系。
    形如:回归模型 归一化 回归模型的步骤_回归_03 一元线性回归
    多元线性回归:多个变量组成的集合,形如,回归模型 归一化 回归模型的步骤_回归_04
  1. 补充涉及的数学知识
  • 多元函数:设D为一个非空的n元有序数组的集合,f为某一确定的对应规则。回归模型 归一化 回归模型的步骤_算法_05 若对于每一个有序数组,通过f都有唯一确定的实数y与之对应,则称对应规则f为定义在D上的n元函数,记为回归模型 归一化 回归模型的步骤_线性回归_06
  • 二元函数:设D是二维空间的一个非空子集,称映射f: D -> R为定义在D上的二元函数,记为回归模型 归一化 回归模型的步骤_算法_07
  1. 线性回归模型
    给定有d个属性(特征)描述的示例回归模型 归一化 回归模型的步骤_线性回归_08,其中回归模型 归一化 回归模型的步骤_算法_09是x在第i个属性(特征)上的取值,线性模型试图学得一个通过属性(特征)的线性组合来进行预测的函数。(假设函数)
    即:回归模型 归一化 回归模型的步骤_算法_10
    一般是用向量表示(向量默认是竖着的),写成:
    回归模型 归一化 回归模型的步骤_算法_11 ,其中回归模型 归一化 回归模型的步骤_算法_12 转置变为横向量了。
    那么横向量*竖向量=数值,本质是向量的内积
    把w和b学得以后,模型就得以确定了。
  2. 最小二乘法
    基于均方误差最小化来进行模型求解的方法称为“最小二乘法”(Least square method). 在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧式距离之和最小。即,真实值与预测值的差值。
  3. 损失函数是对单个训练集的,成本函数是所有训练集损失函数的平均数。