一、jieba分词
jieba是一个功能十分强大的中文分词库
一般常用的分词方法有:全模式、精确模式、搜索引擎模式
str = '中国科学院,我想去北京故宫博物馆!'
1. 全模式
有冗余
all = ' '.join(jieba.cut(str,cut_all=True))
结果:中国 中国科学院 科学 科学院 学院 我 想去 北京 北京故宫 故宫 博物 博物馆
2.精确模式
常用
acc = ' '.join(jieba.cut(str,cut_all=False))
结果:中国科学院,我 想 去 北京故宫 博物馆
3.搜索引擎模式
是个词就会分出来,冗余最大
all = ' '.join(jieba.cut_for_search(str))
结果:中国 科学 学院 科学院 中国科学院 , 我 想 去 北京 故宫 北京故宫 博物 博物馆 !
4.cut与lcut
jieba.cut生成的是一个生成器,generator,也就是可以通过for循环来取里面的每一个词
word_list= [word for word in jieba.cut(text)]
jieba.lcut 直接生成的就是一个list