线性回归

1 介绍

线性回归是通过一个或者多个自变量与因变量之间之间进行建模的回归分析。其中特点为一个或多个称为回归系数的模型参数的线性组合。回归问题的目标值是连续的,比如价格,收入等等。

试图学得一个通过属性的线性组合来进行预测的函数:
𝑓(𝑥)=𝑤_1 𝑥_1+𝑤_2 𝑥_2+…+𝑤_𝑑 𝑥_𝑑+𝑏
w为权重,b称为偏置项,可以理解为:𝑤_0×1

一元线性回归:涉及到的变量只有一个

多元线性回归:涉及到的变量两个或两个以上

如何确定多元非线性回归方程 多元非线性回归拟合_如何确定多元非线性回归方程

单变量:

如何确定多元非线性回归方程 多元非线性回归拟合_python_02


多变量:

如何确定多元非线性回归方程 多元非线性回归拟合_拟合_03

2 损失函数

如何确定多元非线性回归方程 多元非线性回归拟合_拟合_04


如何确定多元非线性回归方程 多元非线性回归拟合_如何确定多元非线性回归方程_05

3 求解W

正规方程:

如何确定多元非线性回归方程 多元非线性回归拟合_如何确定多元非线性回归方程_06


梯度下降:

如何确定多元非线性回归方程 多元非线性回归拟合_python_07

4 回归性能评估

(均方误差(Mean Squared Error)MSE) 评价机制:

如何确定多元非线性回归方程 多元非线性回归拟合_python_08


注:𝑦^𝑖为预测值,¯𝑦为真实值

5 过拟合欠拟合

如何确定多元非线性回归方程 多元非线性回归拟合_数据_09


1.过拟合:一个假设在训练数据上能够获得比其他假设更好的拟合, 但是在训练数据外的数据集上却不能很好地拟合数据,此时认为这个假设出现了过拟合的现象。(模型过于复杂)

原因:

原始特征过多,存在一些嘈杂特征, 模型过于复杂是因为模型尝试去兼顾各个测试数据点

解决办法:

  • 进行特征选择,消除关联性大的特征(很难做)交叉验证(让所有数据都有过训练)
  • 正则化,可以使得W的每个元素都很小,都接近于0

2.欠拟合:一个假设在训练数据上不能获得更好的拟合, 但是在训练数据外的数据集上也不能很好地拟合数据,此时认为这个假设出现了欠拟合的现象。(模型过于简单)
原因:
学习到数据的特征过少
解决办法:
增加数据的特征数量

6 岭回归

带有L2正则项的线性回归,回归得到的回归系数更符合实际,更可靠。另外,能让估计参数的波动范围变小,变的更稳定。在存在病态数据偏多的研究中有较大的实用价值。

7 代码

from sklearn.datasets import load_boston
from sklearn.linear_model import LinearRegression, SGDRegressor,  Ridge, LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import mean_squared_error, classification_report
from sklearn.externals import joblib
import pandas as pd
import numpy as np

def mylinear():
    """
    线性回归直接预测房子价格
    :return: None
    """
    # 获取数据
    lb = load_boston()

    # 分割数据集到训练集和测试集
    x_train, x_test, y_train, y_test = train_test_split(lb.data, lb.target, test_size=0.25)

    print(y_train, y_test)

    # 进行标准化处理(?) 目标值处理?
    # 特征值和目标值是都必须进行标准化处理, 实例化两个标准化API
    std_x = StandardScaler()

    x_train = std_x.fit_transform(x_train)
    x_test = std_x.transform(x_test)

    # 目标值
    std_y = StandardScaler()

    y_train = std_y.fit_transform(y_train)
    y_test = std_y.transform(y_test)

    # 预测房价结果
    model = joblib.load("./tmp/test.pkl")

    y_predict = std_y.inverse_transform(model.predict(x_test))

    print("保存的模型预测的结果:", y_predict)

    # estimator预测
    # 正规方程求解方式预测结果
     lr = LinearRegression()
    
     lr.fit(x_train, y_train)
    #
     print(lr.coef_)

    # 保存训练好的模型
     joblib.dump(lr, "./tmp/test.pkl")

    # # 预测测试集的房子价格
     y_lr_predict = std_y.inverse_transform(lr.predict(x_test))
    #
     print("正规方程测试集里面每个房子的预测价格:", y_lr_predict)
    #
     print("正规方程的均方误差:", mean_squared_error(std_y.inverse_transform(y_test), y_lr_predict))
    #
    # # 梯度下降去进行房价预测
     sgd = SGDRegressor()
    #
     sgd.fit(x_train, y_train)
    #
     print(sgd.coef_)
    #
    # # 预测测试集的房子价格
     y_sgd_predict = std_y.inverse_transform(sgd.predict(x_test))
    #
     print("梯度下降测试集里面每个房子的预测价格:", y_sgd_predict)
    #
     print("梯度下降的均方误差:", mean_squared_error(std_y.inverse_transform(y_test), y_sgd_predict))
    #
    # # 岭回归去进行房价预测
     rd = Ridge(alpha=1.0)
    #
     rd.fit(x_train, y_train)
    #
     print(rd.coef_)
    #
    # # 预测测试集的房子价格
     y_rd_predict = std_y.inverse_transform(rd.predict(x_test))
    #
     print("梯度下降测试集里面每个房子的预测价格:", y_rd_predict)
    #
     print("梯度下降的均方误差:", mean_squared_error(std_y.inverse_transform(y_test), y_rd_predict))

    return None