数据清洗是一项复杂且繁琐(kubi)的工作,同时也是整个数据分析过程中最为重要的环节。有人说一个分析项目80%的时间都是在清洗数据,这听起来有些匪夷所思,但在实际的工作中确实如此。数据清洗的目的有两个,第一是通过清洗让数据可用。第二是让数据变的更适合进行后续的分析工作。换句话说就是有”脏”数据要洗,干净的数据也要洗。

在数据分析中,特别是文本分析中,字符处理需要耗费极大的精力,因而了解字符处理对于数据分析而言,也是一项很重要的能力。

字符串处理方法

首先我们先了解下都有哪些基础方法


首先我们了解下字符串的拆分split方法聽聽

str='i like apple,i like bananer'

print(str.split(','))

对字符str用逗号进行拆分的结果:

['i like apple', 'i like

bananer']聽聽

print(str.split(' '))

根据空格拆分的结果:

['i', 'like', 'apple,i', 'like',

'bananer']聽聽

print(str.index(','))

print(str.find(','))

两个查找结果都为:

12

找不到的情况下index返回错误,find返回-1聽聽

print(str.count('i'))

结果为:

connt用于统计目标字符串的频率聽聽

print(str.replace(',', ' ').split(' '))

结果为:

['i', 'like', 'apple', 'i', 'like', 'bananer']

这里replace把逗号替换为空格后,在用空格对字符串进行分割,刚好能把每个单词取出来。

除了常规的方法以外,更强大的字符处理工具费正则表达式莫属了。

正则表达式

在使用正则表达式前我们还要先了解下,正则表达式中的诸多方法。


下面我来看下个方法的使用,首先了解下match和search方法的区别聽聽

str = "Cats are smarter than dogs"

pattern=re.compile(r'(.*) are (.*?) .*')

result=re.match(pattern,str)

for i in range(len(result.groups()) 1):

聽print(result.group(i))

结果为:

Cats are smarter than dogs

Cats

smarter

这种形式的pettern匹配规则下,match和search方法的的返回结果是一样的

此时如果把pattern改为聽聽

pattern=re.compile(r'are (.*?) .*')

match则返回none,search返回结果为:

are smarter than dogs

smarter

接下来我们了解下其他方法的使用聽聽

str = "138-9592-5592 # number"

pattern=re.compile(r'#.*$')

number=re.sub(pattern,'',str)

print(number)

结果为:

138-9592-5592

以上是通过把#号后面的内容替换为空实现提取号码的目的。

我们还可以进一步对号码的横杆进行替换聽聽

print(re.sub(r'-*','',number))

结果为:

13895925592

我们还可以用find的方法把找到的字符串打印出来聽聽

str = "138-9592-5592 # number"

pattern=re.compile(r'5')

print(pattern.findall(str))

结果为:

['5', '5', '5']

正则表达式的整体内容比较多,需要我们对匹配的字符串的规则有足够的了解,下面是具体的匹配规则。


矢量化字符串函数

清理待分析的散乱数据时,常常需要做一些字符串规整化工作。聽聽

data = pd.Series({'li': '120@qq.com','wang':'5632@qq.com',

聽'chen':

'8622@xinlang.com','zhao':np.nan,'sun':'5243@gmail.com'})

print(data)

结果为:


可以通过规整合的一些方法对数据做初步的判断,比如用contains

判断每个数据中是否含有关键词聽聽

print(data.str.contains('@'))

结果为:


也可以对字符串进行分拆,把需要的字符串提取出来聽聽

data = pd.Series({'li': '120@qq.com','wang':'5632@qq.com',

聽聽聽聽

'chen':

'8622@xinlang.com','zhao':np.nan,'sun':'5243@gmail.com'})

pattern=re.compile(r'(\d*)@([a-z] )\.([a-z]{2,4})')

result=data.str.match(pattern)

#这里用fillall的方法也可以result=data.str.findall(pattern)

print(result)

结果为:

chen [(8622, xinlang, com)]

li [(120, qq, com)]

sun [(5243, gmail, com)]

wang [(5632, qq, com)]

zhao NaN

dtype: object

此时加入我们需要提取邮箱前面的名称聽聽

print(result.str.get(0))

结果为:


或者需要邮箱所属的域名聽聽

print(result.str.get(1))

结果为:


当然也可以用切片的方式进行提取,不过提取的数据准确性不高聽聽

data = pd.Series({'li': '120@qq.com','wang':'5632@qq.com',

聽聽聽 'chen':

'8622@xinlang.com','zhao':np.nan,'sun':'5243@gmail.com'})

print(data.str[:6])

结果为:


最后我们了解下矢量化的字符串方法


总结

以上就是python数据清洗之字符串处理的全部内容了