机器学习算法实践中,我们往往有着将不同规格的数据转换到同一规格,或不同分布的数据转换到某个特定分布的需求,这种需求统称为将数据“无量纲化”

  • 以梯度和矩阵为核心的算法中,譬如逻辑回归,支持向量机,神经网络,无量纲化可以加快求解速度

  • 距离类模型,譬如K近邻,KMeans聚类中,无量纲化可以帮我们提升模型精度,避免某一个取值范围特别大的特征对距离计算造成影响。

  • 一个特例是决策树和树的集成算法们,对决策树我们不需要无量纲化,决策树可以把任意数据都处理得很好。


数据的无量纲化可以是线性的,也可以是非线性的。线性的无量纲化包括中心化(Zero-centered或者Mean-subtraction)处理和缩放处理(Scale)。中心化的本质是让所有记录减去一个固定值,即让数据样本数据平移到某个位置。缩放的本质是通过除以一个固定值,将数据固定在某个范围之中,取对数也算是一种缩放处理。

数据预处理:数据归一化MinMaxScaler_java


preprocessing.MinMaxScaler

当数据(x)按照最小值中心化后,再按极差(最大值 - 最小值)缩放,数据移动了最小值个单位,并且会被收敛到[0,1]之间,而这个过程,就叫做数据归一化(Normalization,又称Min-Max Scaling)。注意,Normalization是归一化,不是正则化,真正的正则化是regularization,不是数据预处理的一种手段。归一化之后的数据服从正态分布,公式如下:

数据预处理:数据归一化MinMaxScaler_java_02

数据预处理:数据归一化MinMaxScaler_java_03

在sklearn当中,我们使用preprocessing.MinMaxScaler来实这个功能。MinMaxScaler有一个重要参数,feature_range,控制我们希望把数据压缩到的范围,默认是[0,1]































#   数据缩放/数据归一化#   MinMaxScaler:当数据(x)按照最小值中心化后,再按极差(最大值 - 最小值)缩放,数据被收敛到[0,1]之间from sklearn.preprocessing import MinMaxScaler data = [[-1, 2], [-0.5, 6], [0, 10], [1, 18]]data
import pandas as pdpd.DataFrame(data) #实现归一化scaler = MinMaxScaler()           #实例化# scaler = scaler.fit(data)         #fit,在这里本质是生成min(x)和max(x)# result = scaler.transform(data)   #通过接口导出结果# result
result_ = scaler.fit_transform(data)                #训练和导出结果一步达成result_# scaler.inverse_transform(result)                    #将归一化后的结果逆转 # #使用MinMaxScaler的参数feature_range实现将数据归一化到[0,1]以外的范围中 # data = [[-1, 2], [-0.5, 6], [0, 10], [1, 18]]# scaler = MinMaxScaler(feature_range=[5,10])         #依然实例化# result = scaler.fit_transform(data)                 #fit_transform一步导出结果# result # #当X中的特征数量非常多的时候,fit会报错并表示,数据量太大了我计算不了# #此时使用partial_fit作为训练接口# #scaler = scaler.partial_fit(data)



 使用numpy来实现归一化:

import numpy as np
X = np.array([[-12], [-0.56], [010], [118]])

#归一化
X_nor = (X - X.min(axis=0)) / (X.max(axis=0) - X.min(axis=0))
X_nor

#逆转归一化
X_returned = X_nor * (X.max(axis=0) - X.min(axis=0)) + X.min(axis=0)
X_returned