写在前面:

  前几天的课堂作业有一项是使用jieba库进行中文分词,当时的代码是参考的网上的,自己也没具体去看,趁着空闲我就重新阅读一下代码。

源码:

import jieba
txt = open("房产.csv", "r", encoding='utf-8').read()
words = jieba.lcut(txt)  # 使用精确模式对文本进行分词
counts = {}  # 通过键值对的形式存储词语及其出现的次数

for word in words:
    if len(word) == 1:  # 单个词语不计算在内
        continue
    else:
        counts[word] = counts.get(word, 0) + 1  # 遍历所有词语,每出现一次其对应的值加 1

items = list(counts.items())  # 将键值对转换成列表
items.sort(key=lambda x: x[1], reverse=True)  # 根据词语出现的次数进行从大到小排序

for i in range(1000):
    word, count = items[i]
    import pymysql

    db = pymysql.connect(host="localhost", user="root", password="156132", database="cloud1", charset="utf8mb4")
    cursor = db.cursor()
    sql = "insert into fangchan(word,count) values ('" + str(word) + "','" + str(
        count) + "')"
    try:
        cursor.execute(sql)
        db.commit()
        # print(school_shengfen + "\t" + school_name + "添加成功")
    except:
        print("插入出错")
        db.rollback()

    print("{0:<5}{1:>5}".format(word, count))

总结:

1.用open方法打开csv文件,进行内容读取。

2.counts = {},首先定义一个字典,用来存储分词以及出现的次数。

3.注意:访问字典的方式:counts[word] = counts.get(word,0)+1

get方法是根据索引值Word查找,如果没有找到次数就返回默认值0,反之加一,来达到统计词频的目的。

4.list方法是转换成为键值对

5.排序直接调用方法sort