这是对涂铭等老师撰写的《Python自然语言处理实战:核心技术与算法》中第4章词性标注与命名实体识别的学习笔记。
这里写目录标题
- 词性的类型总结
- 利用jieba进行词性标注
- 日期识别
- 地点识别
- 总结
词性的类型总结
# 词性列表
1. 名词 (1个一类,7个二类,5个三类)
n 名词
nr 人名
nr1 汉语姓氏
nr2 汉语名字
nrj 日语人名
nrf 音译人名
ns 地名
nsf 音译地名
nt 机构团体名
nz 其它专名
nl 名词性惯用语
ng 名词性语素
2. 时间词(1个一类,1个二类)
t 时间词
tg 时间词性语素
3. 处所词(1个一类)
s 处所词 (家中、门外、境内、西方……)
4. 方位词(1个一类)
f 方位词
5. 动词(1个一类,9个二类)
v 动词
vd 副动词
vn 名动词
vshi 动词“是”
vyou 动词“有”
vf 趋向动词
vx 形式动词
vi 不及物动词(内动词)
vl 动词性惯用语
vg 动词性语素
6. 形容词(1个一类,4个二类)
a 形容词
ad 副形词
an 名形词
ag 形容词性语素
al 形容词性惯用语
7. 区别词(1个一类,2个二类)
b 区别词 (主要、整个、所有……)
bl 区别词性惯用语
8. 状态词(1个一类)
z 状态词
9. 代词(1个一类,4个二类,6个三类)
r 代词
rr 人称代词
rz 指示代词
rzt 时间指示代词
rzs 处所指示代词
rzv 谓词性指示代词
ry 疑问代词
ryt 时间疑问代词
rys 处所疑问代词
ryv 谓词性疑问代词
rg 代词性语素
10. 数词(1个一类,1个二类)
m 数词
mq 数量词
11. 量词(1个一类,2个二类)
q 量词
qv 动量词
qt 时量词
12. 副词(1个一类)
d 副词
13. 介词(1个一类,2个二类)
p 介词
pba 介词“把”
pbei 介词“被”
14. 连词(1个一类,1个二类)
c 连词
cc 并列连词
15. 助词(1个一类,15个二类)
u 助词
uzhe 着
ule 了 喽
uguo 过
ude1 的 底
ude2 地
ude3 得
usuo 所
udeng 等 等等 云云
uyy 一样 一般 似的 般
udh 的话
uls 来讲 来说 而言 说来
uzhi 之
ulian 连 (“连小学生都会”)
16. 叹词(1个一类)
e 叹词
17. 语气词(1个一类)
y 语气词(delete yg)
18. 拟声词(1个一类)
o 拟声词
19. 前缀(1个一类)
h 前缀
20. 后缀(1个一类)
k 后缀
21. 字符串(1个一类,2个二类)
x 字符串
xx 非语素字
xu 网址URL
22. 标点符号(1个一类,16个二类)
w 标点符号
wkz 左括号,全角:( 〔 [ { 《 【 〖 〈 半角:( [ { <
wky 右括号,全角:) 〕 ] } 》 】 〗 〉 半角: ) ] { >
wyz 左引号,全角:“ ‘ 『
wyy 右引号,全角:” ’ 』
wj 句号,全角:。
ww 问号,全角:? 半角:?
wt 叹号,全角:! 半角:!
wd 逗号,全角:, 半角:,
wf 分号,全角:; 半角: ;
wn 顿号,全角:、
wm 冒号,全角:: 半角: :
ws 省略号,全角:…… …
wp 破折号,全角:—— -- ——- 半角:--- ----
wb 百分号千分号,全角:% ‰ 半角:%
wh 单位符号,全角:¥ $ £ ° ℃ 半角:$
利用jieba进行词性标注
import jieba.posseg as psg
sent = '中文分词是文本处理不可或缺的一步!'
seg_list = psg.cut(sent)
print(' '.join(['{0}/{1}'.format(w, t) for w, t in seg_list]))
日期识别
#日期识别
import re
from datetime import datetime,timedelta
from dateutil.parser import parse
import jieba.posseg as psg
UTIL_CN_NUM = {
'零': 0, '一': 1, '二': 2, '两': 2, '三': 3, '四': 4,
'五': 5, '六': 6, '七': 7, '八': 8, '九': 9,
'0': 0, '1': 1, '2': 2, '3': 3, '4': 4,
'5': 5, '6': 6, '7': 7, '8': 8, '9': 9
}
UTIL_CN_UNIT = {'十': 10, '百': 100, '千': 1000, '万': 10000}
def cn2dig(src):
if src == "":
return None
m = re.match("\d+", src)
if m:
return int(m.group(0))
rsl = 0
unit = 1
for item in src[::-1]:
if item in UTIL_CN_UNIT.keys():
unit = UTIL_CN_UNIT[item]
elif item in UTIL_CN_NUM.keys():
num = UTIL_CN_NUM[item]
rsl += num * unit
else:
return None
if rsl < unit:
rsl += unit
return rsl
def year2dig(year):
res = ''
for item in year:
if item in UTIL_CN_NUM.keys():
res = res + str(UTIL_CN_NUM[item])
else:
res = res + item
m = re.match("\d+", res)
if m:
if len(m.group(0)) == 2:
return int(datetime.datetime.today().year/100)*100 + int(m.group(0))
else:
return int(m.group(0))
else:
return None
def parse_datetime(msg):
if msg is None or len(msg) == 0:
return None
try:
dt = parse(msg, fuzzy=True)
return dt.strftime('%Y-%m-%d %H:%M:%S')
except Exception as e:
m = re.match(
r"([0-9零一二两三四五六七八九十]+年)?([0-9一二两三四五六七八九十]+月)?([0-9一二两三四五六七八九十]+[号日])?([上中下午晚早]+)?([0-9零一二两三四五六七八九十百]+[点:\.时])?([0-9零一二三四五六七八九十百]+分?)?([0-9零一二三四五六七八九十百]+秒)?",
msg)
if m.group(0) is not None:
res = {
"year": m.group(1),
"month": m.group(2),
"day": m.group(3),
"hour": m.group(5) if m.group(5) is not None else '00',
"minute": m.group(6) if m.group(6) is not None else '00',
"second": m.group(7) if m.group(7) is not None else '00',
}
params = {}
for name in res:
if res[name] is not None and len(res[name]) != 0:
tmp = None
if name == 'year':
tmp = year2dig(res[name][:-1])
else:
tmp = cn2dig(res[name][:-1])
if tmp is not None:
params[name] = int(tmp)
target_date = datetime.today().replace(**params)
is_pm = m.group(4)
if is_pm is not None:
if is_pm == u'下午' or is_pm == u'晚上' or is_pm =='中午':
hour = target_date.time().hour
if hour < 12:
target_date = target_date.replace(hour=hour + 12)
return target_date.strftime('%Y-%m-%d %H:%M:%S')
else:
return None
def check_time_valid(word):
m = re.match("\d+$", word)
if m:
if len(word) <= 6:
return None
word1 = re.sub('[号|日]\d+$', '日', word)
if word1 != word:
return check_time_valid(word1)
else:
return word1
#时间提取
def time_extract(text):
time_res = []
word = ''
keyDate = {'今天': 0, '明天':1, '后天': 2}
for k, v in psg.cut(text):
if k in keyDate:
if word != '':
time_res.append(word)
word = (datetime.today() + timedelta(days=keyDate.get(k, 0))).strftime('%Y{y}%m{m}%d{d}').format(y='年', m='月', d='日')
elif word != '':
if v in ['m', 't']:
word = word + k
else:
time_res.append(word)
word = ''
elif v in ['m', 't']:
word = k
if word != '':
time_res.append(word)
result = list(filter(lambda x: x is not None, [check_time_valid(w) for w in time_res]))
final_res = [parse_datetime(w) for w in result]
return [x for x in final_res if x is not None]
text1 = '我要住到明天下午三点'
print(text1, time_extract(text1), sep=':')
text2 = '预定28号的房间'
print(text2, time_extract(text2), sep=':')
text3 = '我要从26号下午4点住到11月2号'
print(text3, time_extract(text3), sep=':')
text4 = '我要预订今天到30的房间'
print(text4, time_extract(text4), sep=':')
text5 = '今天30号呵呵'
print(text5, time_extract(text5), sep=':')
text6 = '今天是2021年3月2号'
print(text6, time_extract(text6), sep=':')
我要住到明天下午三点:['2021-03-03 00:00:00']
预定28号的房间:['2021-03-28 00:00:00']
我要从26号下午4点住到11月2号:['2021-03-26 16:00:00', '2021-11-02 00:00:00']
我要预订今天到30的房间:['2021-03-02 00:00:00']
今天30号呵呵:['2030-03-02 00:00:00']
今天是2021年3月2号:['2021-03-02 00:00:00', '2021-03-02 00:00:00']
地点识别
#coding=utf8
"""
我们对人民日报语料进行数据处理,并切割了部分作为测试集来进行验证。
"""
def tag_line(words, mark):
"""
每行的标注转换
:param words:
:param mark:
:return:
"""
chars = []
tags = []
temp_word = '' #用于合并组合词
for word in words:
word = word.strip('\t ')
if temp_word == '':
bracket_pos = word.find('[')
w, h = word.split('/')
if bracket_pos == -1:
if len(w) == 0: continue
chars.extend(w)
if h == 'ns':
tags += ['S'] if len(w) == 1 else ['B'] + ['M'] * (len(w) - 2) + ['E']
else:
tags += ['O'] * len(w)
else:
w = w[bracket_pos+1:]
temp_word += w
else:
bracket_pos = word.find(']')
w, h = word.split('/')
if bracket_pos == -1:
temp_word += w
else:
w = temp_word + w
h = word[bracket_pos+1:]
temp_word = ''
if len(w) == 0: continue
chars.extend(w)
if h == 'ns':
tags += ['S'] if len(w) == 1 else ['B'] + ['M'] * (len(w) - 2) + ['E']
else:
tags += ['O'] * len(w)
assert temp_word == ''
return (chars, tags)
def corpusHandler(corpusPath):
"""
加载数据,调用tag_line,保存转换结果
:param corpusPath:
:return:
"""
import os
root = os.path.dirname(corpusPath)
with open(corpusPath,encoding='UTF-8') as corpus_f, \
open(os.path.join(root, 'train.txt'), 'w') as train_f, \
open(os.path.join(root, 'test.txt'), 'w') as test_f:
pos = 0
for line in corpus_f:
line = line.strip('\r\n\t ')
if line == '': continue
isTest = True if pos % 5 == 0 else False # 抽样20%作为测试集使用
words = line.split()[1:]
if len(words) == 0: continue
line_chars, line_tags = tag_line(words, pos)
saveObj = test_f if isTest else train_f
for k, v in enumerate(line_chars):
saveObj.write(v + '\t' + line_tags[k] + '\n')
saveObj.write('\n')
pos += 1
if __name__ == '__main__':
corpusHandler('./data/people-daily.txt')
def f1(path):
"""
模型训练和测试,计算模型在测试集的效果
:param path:
:return:
"""
with open(path) as f:
all_tag = 0 #记录所有的标记数
loc_tag = 0 #记录真实的地理位置标记数
pred_loc_tag = 0 #记录预测的地理位置标记数
correct_tag = 0 #记录正确的标记数
correct_loc_tag = 0 #记录正确的地理位置标记数
states = ['B', 'M', 'E', 'S']
for line in f:
line = line.strip()
if line == '': continue
_, r, p = line.split()
all_tag += 1
if r == p:
correct_tag += 1
if r in states:
correct_loc_tag += 1
if r in states: loc_tag += 1
if p in states: pred_loc_tag += 1
loc_P = 1.0 * correct_loc_tag/pred_loc_tag
loc_R = 1.0 * correct_loc_tag/loc_tag
print('loc_P:{0}, loc_R:{1}, loc_F1:{2}'.format(loc_P, loc_R, (2*loc_P*loc_R)/(loc_P+loc_R)))
def load_model(path):
"""
加载之前训练的模型
:param path:
:return:
"""
import os, CRFPP
# -v 3: access deep information like alpha,beta,prob
# -nN: enable nbest output. N should be >= 2
if os.path.exists(path):
return CRFPP.Tagger('-m {0} -v 3 -n2'.format(path))
return None
def locationNER(text):
"""
接受字符串,输出其识别的地名
:param text:
:return:
"""
tagger = load_model('./model')
for c in text:
tagger.add(c)
result = []
# parse and change internal stated as 'parsed'
tagger.parse()
word = ''
for i in range(0, tagger.size()):
for j in range(0, tagger.xsize()):
ch = tagger.x(i, j)
tag = tagger.y2(i)
if tag == 'B':
word = ch
elif tag == 'M':
word += ch
elif tag == 'E':
word += ch
result.append(word)
elif tag == 'S':
word = ch
result.append(word)
return result
if __name__ == '__main__':
# f1('./data/test.rst') # 计算模型在测试集的效果
text = '我中午要去北京饭店,下午去中山公园,晚上回亚运村。'
print(text, locationNER(text), sep='==> ')
text = '我去回龙观,不去南锣鼓巷'
print(text, locationNER(text), sep='==> ')
text = '打的去北京南站地铁站'
print(text, locationNER(text), sep='==> ')
text = '武汉在湖北省,黄鹤楼是个著名的景区'
print(text, locationNER(text), sep='==> ')
总结