import csv

1. 多余的空行

原因

python正常写入文件的时候,每行的结束默认添加’\n’,即0x0D,而writerow命令的结束会再增加一个0x0D0A,因此对于windows系统来说,就是两行。采用’ b’参数,用二进制进行文件写入,系统默认是不添加0x0D的(故python2.x中的解决方式是使用“wb模式打开文件”,该方法python3.x中已不适用,会报错如下)。

TypeError: a bytes-like object is required, not 'str'

解决方法

打开待写入文件时添加newline=“”。例如。

with open(filename,"w",encoding="utf-8",newline="") as csvfile:
        writer = csv.writer(csvfile)
        writer.writerows(csv_list)



2. BOM对读写的影响

(1)什么是BOM

BOM(byte-order mark,字节顺序标记):
Unix系统中都是使用的utf-8编码,所以在Mac用open打开utf-8编码的csv文件并不用加encoding=“utf-8”。

with open(filename) as csvfile:
        reader = csv.reader(csvfile)
        content = [row for row in reader]

Windows系统的中文环境很多软件默认字符编码为gbk,比如如果用上面的语句打开csv文件则会报错。

'gbk' codec can't decode byte

这种情况可以指定编码为“gbk”来读取:

with open(filename, encoding='gbk') as csvfile:
        reader = csv.reader(csvfile)
        content = [row for row in reader]

而utf-8保存的文件要用Excel正常打开的话(不乱码),必须在文件最前面加入BOM(Mac、Windows都是)。

*Mac下用Excel处理过的utf-8编码csv文件也会带BOM头哦

(2)读取带有BOM头的csv文件

问题:首行出现“\ufeff”

如果不处理,读取的列表中,第一项最前面会多“\ufeff”几个字母。如果这一项再作为内容被写入csv,则首行最前面会好像出现了乱码。

解决方法

打开文件时的encoding = “utf-8” 改为encoding = “utf-8-sig”。

with open(filename,"w",encoding="utf-8-sig",newline="") as csvfile:
        reader = csv.reader(csvfile)
        content = [row for row in reader]

关于”utf-8“ 与“uft-8-sig":
”utf-8“ 是以字节为编码单元,它的字节顺序在所有系统中都是一样的,没有字节序问题,因此它不需要BOM,所以当用”utf-8”编码方式读取带有BOM的文件时,它会把BOM当做是文件内容来处理, 也就会发生类似上边的错误.
“uft-8-sig"中sig即 signature ,也就是”带有签名的utf-8”,因此”utf-8-sig”读取带有BOM的”utf-8文件时”会把BOM单独处理,与文本内容隔离开。


(3)写入带有BOM头的csv文件

不带BOM头的csv文件用Excel打开中文会乱码,Notepad++打开不会乱码。

用Excel打开:

python2 写入csv python 写入csv有空行_python2 写入csv


用Notepad++打开:

python2 写入csv python 写入csv有空行_windows_02


写入csv文件时写入BOM头的方法:

方法一:编码改为“utf-8-sig”。

这个方法在mac下没问题,windows下好像以前试过不行,所以后来又找了方法二。

with open(filename,"w",encoding="utf-8-sig",newline="") as csvfile:
        writer = csv.writer(csvfile)
        writer.writerows(csv_list)
方法二:在写入文件内容之前写入二进制的 “\xef\xbb\xbf”。
import codecs
with open(filename,"wb") as csvfile:
        csvfile.write(codecs.BOM_UTF8) 
        # 或
        csvfile.write(b“\xef\xbb\xbf)

注意使用python3时,这里的打开模式只能是”wb“(写入二进制文件),不能是”w“,否则会报错:

TypeError: write() argument must be str, not bytes
一个完整的加BOM头写入方法:

1、先用”wb“模式写入BOM头
2、再用”a“(追加)模式写入正文

with open(filename,"wb") as csvfile:
        csvfile.write(b"\xef\xbb\xbf") 
with open(filename,"a",encoding="UTF-8",newline="") as csvfile: 
        writer = csv.writer(csvfile)
        writer.writerow(rows)

3. csv.reader读取的内容只能使用一次

with open("test.csv",'r',encoding="UTF-8",newline="") as csvfile:
            reader = csv.reader(csvfile)
            col1 = [row[1] for row in reader]
            col2 = [row[2] for row in reader]

这样读出来col2会是空值。因为出于节省内存的原因,reader中的内容被读取一次后就会释放。如果确实需要两列分开读,那么就先把reader中需要的内容全部读出来,再分别用不同的变量表示。

with open("test.csv",'r',encoding="UTF-8",newline="") as csvfile:
            reader = csv.reader(csvfile)
            rows = [row for row in reader] # 把reader中需要的内容都读出来
            col1 = [row[0] for row in rows] # 从rows中读取
            col2 = [row[1] for row in rows] # 从rows中读取

4. 其他

(1)读取写入模式

r:只读,文件不存在则报错
r+:可读可写,文件不存在则报错,覆盖
w:只写,文件不存在则创建,覆盖
w+:可读可写,文件不存在则创建,覆盖
rb,wb:类似w,r,用于二进制文件读写
a:只写,文件不存在则创建,追加
a+:可读可写,文件不存在则创建,追加

(2)指针

  1. 每次打开文件默认指针是在开头的。可以通过file.tell()查询当前指针位置,file.seek()来设置指针的位置进行读写操作。
  2. 在打开的文件中(一个with open内部),每次操作都是从当前指针指向位置向后进行读写,读写完成指针停留在当前文档的最后。

(3)报错: _csv.Error: field larger than field limit (131072)

原因:读取的csv文件有的字段(单元格)里的字数太多,超出限制
解决:在读取csv文件之前修改最大限制:

csv.field_size_limit(500 * 1024 * 1024)
#或者
csv.field_size_limit(sys.maxsize)

其中sys.maxsize值为9223372036854775807=2^63-1,是64位系统下有符号整型最大值。


最后

这些都是最近做数据处理过程中遇到的问题,如果有不对的地方欢迎大家批评指正,共同学习。