1.当我们使用python读取文件的时候,我们通常是这样写的
with open('xx.txt','r')as f:
for line in f:
print(line)
这样我们就可以遍历一行行的遍历文本。
2. 但是当文本很大的时候,我们就不能这样写了,因为这样可能导致我们的内存爆掉了。
我们可以利用生成器,每次迭代出一块一块来,这样就不会出现问题啦。
# size:每次块的大小
for lines in chunkify('./xxxx.log', size=int(1024 * 1024 * 0.5)):
print(lines)e)
with open(fname, 'r') as f:
while True:
f.seek(start)
lines = f.read(size).split('\n')
last_line_size = len(bytes(lines[-1].encode('utf-8')))
start = f.tell() - last_line_size
yield lines[:-1]
# if start >= fileEnd - last_line_size:
# break
1.可以看到这里使用的read函数,每次读取size大小的文本。
2.根据\n来切割文本,使之为一行行的。
文本的指针用tell来定位位置,用seek来跳跃到最新的位置。
3. 使用
for lines in chunkify('./xxxxx.log', size=int(1024 * 1024 * 0.5)):
print(lines)
这样可以达到读取一行行的效果,同时也不用担心文件太大,而太占内存。
4. 其他相关的模块,在搜文章的时候顺便了解了一下。如果你也遇到了读取大文件的,那你肯定会遇到linecache模块
linecache模块的作用是将
当我们需要读取多个文件时,效果会非常好。
linecache.getlines(filename) # 读取文件的全部内容
linecache.getline(filename,lineno)# 读取文件指定行
linecache.clearcache() # 清除缓存
linecache.updatecache(filename) # 当文件更新了,使用这个函数可以更新linecache.getlines(filename)返回的列表。