1.特征工程直接影响模型预测结果。python用sklearn库做特征工程

两种文本特征抽取方法(Count,  tf-idf)

(1)特征抽取API(统计单词次数)

sklearn.feature_extraction

python调用sklearn.feature_extraction 的DictVectorizer实现字典特征抽取

# 字典特征抽取
def dictvec():
    # 特征数据是字符串的话不能输入到算法里面,是要进行特征,转换的转换成OneHot编码。有利于机器学习算法分析。
    # 字典数据抽取,把字典中的一些类别特征,转换乘特征(数字),但是字典里面的数字不会进行转换,因为本来就是数据。
    # 如果是数组形式,有类别的这些特征,我们要先转换成字典,再进行数据抽取。
    # 实例化
    dict = DictVectorizer()

    # 返回的data是一个sparse矩阵格式
    # sparse节约内存,方便数据处理
    data = dict.fit_transform([{"city": "北京", 'temperature': 100}, {"city": "上海", 'temperature': 60}, {"city": "深圳", 'temperature': 30}])

    print(dict.inverse_transform(data))
    print(data)
    # 返回内容列表
    print(dict.get_feature_names())

#文本数据特种抽取

python调用sklearn.feature_extraction.text 的 CountVectorizer实现文本特征抽取

# 文本特征抽取
def countvec():

    test = CountVectorizer()        # 统计次数
    data = test.fit_transform(["life is is short I like python", "life is too long,I dislike python"])
    # 词去重,放在一个列表中
    print(test.get_feature_names())
    # 返回的是sparse格式,toarray手动转成二元组形式,对每篇文章在词的列表里面统计每个词出现的次数(单个字母不统计)
    print(data.toarray())

    # ['dislike', 'is', 'life', 'like', 'long', 'python', 'short', 'too']
    # [[0 1 1 1 0 1 1 0]
    #  [1 1 1 0 1 1 0 1]]

# 中文特征抽取
# 中文因为没有像英文一样进行分词,所以在做特征抽取前要先用jieba进行分词
def cutword():
    # 用jieba分词
    cont1 = jieba.cut("今天很残酷,明天很残酷,后天很美好")
    cont2 = jieba.cut("我们看到的从很远星系来的光是几百万年前发出的")
    cont3 = jieba.cut("如果只用一种方式了解某样事物,你就不会真正了解他")

    # 转换成列表
    content1 = list(cont1)
    content2 = list(cont2)
    content3 = list(cont3)
    # print(content3)
    # ['如果', '只用', '一种', '方式', '了解', '某样', '事物', ',', '你', '就', '不会', '真正', '了解', '他']
    # 把列表转换成字符串
    c1 = ' '.join(content1)
    c2 = ' '.join(content2)
    c3 = ' '.join(content3)
    # print(c1)
    # 今天 很 残酷 , 明天 很 残酷 , 后天 很 美好

    return c1, c2, c3

def hanzivec():
    test = CountVectorizer()
    c1, c2 ,c3 = cutword()

    data = test.fit_transform([c1, c2, c3])
    print(test.get_feature_names())
    print(data.toarray())

注:对英文和中文特征抽取过程是不一样的,因为英文单词与单词之间是有空格的,所以不用进行分词。

但是对于中文,词与词之间是没有空格的,所以需要先用jieba进行分词处理,再做特征抽取。

英文特征抽取结果:

['dislike', 'is', 'life', 'like', 'long', 'python', 'short', 'too']
[[0 2 1 1 0 1 1 0]
 [1 1 1 0 1 1 0 1]]

中文特征抽取结果:
['一种', '不会', '了解', '事物', '今天', '光是', '几百万年', '发出', '只用', '后天', '如果', '我们', '方式', '明天', '星系', '某样', '残酷', '看到', '真正', '美好']
[[0 0 0 0 1 0 0 0 0 1 0 0 0 1 0 0 2 0 0 1]
 [0 0 0 0 0 1 1 1 0 0 0 1 0 0 1 0 0 1 0 0]
 [1 1 2 1 0 0 0 0 1 0 1 0 1 0 0 1 0 0 1 0]]

(2)对于以上用统计每个单词数量的方法来做文章的比较,有一个问题就是,每篇文章假如出现了大量的中性词(所以,因为,如果,那么等等),用统计的方法就不再合适。

TF-IDF

Tf:term frequency(词的频率)

idf:inverse document frequency(逆文档频率)

统计词每篇文章出现的次数 * log(总文档数量/该词出现的文档数量)=重要性

举例:

假如有三篇文章c1, c2, c3

“所以”一词出现在两篇文章中,c1出现了5次,c2出现了2次

那么对于第一篇文档TF-IDF就是5*log(3/2)

那么对于第二篇文档TF-IDF就是2*log(3/2)

对于原本出现次数比较多的此压缩了权重

对于原本出现次数比较少的此增加了权重

可以得出每个词对于这篇文章的重要性

具体意思就是如果一些词在一篇文章出现频率较高,在其他文章出现频率较低,那么说明这些词对于这篇文章重要程度较高。而对于一些所有文章都出现的词那么重要程度较低。
 

from sklearn.feature_extraction.text import TfidfVectorizer

# TFIDF特征抽取
def tfidfvec():
    test = TfidfVectorizer()
    c1, c2, c3 = cutword()
    data = test.fit_transform([c1, c2, c3])
    print(test.get_feature_names())
    print(data.toarray())

一共三篇文章,结果是每个词在其所在的文章所占的比重。

KAZE特征提取方法代码python 特征提取 python_KAZE特征提取方法代码python

目标值标签编码

sklearn必须导入数值型。不能是字符串(可以导入一维数组)。

所以我们需要对目标值进行处理

from sklearn.preprocessing import LabelEncoder

#去除最后一列,用LabelEncoder转换成编码(0,1,2)
data.iloc[:, -1] = LabelEncoder().fit_transform(data.iloc[:, -1])

类别型特征做独热编码OneHotEncoder

例如:

有两列特征性别(男,女)、学历(初中,高中,大学)

小明是男生,大学。那么做完独热编码后小明的特征就转换成

1,0,0,0,1

# 取所有行的第一列到倒数第二列
X = data.iloc[:, 1:-1]

#auto,自动识别有几类
enc = OneHotEncoder(categories='auto')

# toarray,将结果转换成一个array数组
result = enc.fit_transform(X).toarray()

# 将OneHot编码后的结果还原
pd.DataFrame(enc.inverse_transform(result))

# 换回OneHot编码后的分类对照结果
# enc.get_feature_names()

Binarizer处理对特征做二值化处理

# 所有对列处理的方法传入的数值都不能是一维,要转成二维数组
X = data_2.ilco[:, 0].values.reshape(-1, 1)

transformer = Binarizer(threshold=30).fit_transform(X)

# 将转换后的0,1数值替换掉原来的列
data_2.iloc[:, 0] = transformer

KBinsDiscretizer对数值做多值化处理

from sklearn.preprocessing import KBinsDiscretizer

# 分成3箱,用独热编码,等宽
est = KBinsDiscretizer(n_bins=3, encode='ordinal', strategy='uniform')