Java极速读取超大文件

  • Java读取超大文件的几种方法
  • 传统Block IO读入
  • 使用NIO零拷贝读
  • 实际执行效果
  • 使用BufferReader 执行效果
  • 使用改造后的NIO零拷贝的效果
  • 总结
  • 注意事项
  • FAQ
  • 最重要的事


Java读取超大文件的几种方法

在这里必须说明一下,此处所说的超大文件,是指至少2G以上,可能是10G或者更大,文件内容是单行可处理的类型,通常为csv文件。好了,前提已说明,让我们快速进入主题,样例代码可能如下:

传统Block IO读入

超大文件读取通常面临最大的问题是什么呢?不用想,必须内存了,譬如10个G的文件,你直接加载到内存试试。那么既然有内存有限制,那必须要考虑使用带缓冲区的方式进行读入,处理方式有多种,进摘抄我使用到的样例代码如下

@Slf4j
public class TestRead {

  @Test
  public void testRead() throws IOException {
    String readFile = "/Users/renhongqiang/Downloads/work-doc/2000W/test.csv";
    BufferedReader bufferedReader = null;
    bufferedReader = new BufferedReader(new InputStreamReader(new FileInputStream(new File(readFile))));
    String line;
    int counter = 0;
    while (!StringUtils.isEmpty(line = bufferedReader.readLine())) {
      log.info("this is {} line",counter++);
    }
  }
}

使用NIO零拷贝读

关于零拷贝,概念部分,请大家自行百度,我这给出的是使用NIO零拷贝读取超大文件的实现思路,如下图:

java io读取大文件 java如何读取大文件_java io读取大文件

  • 简单来说主要分为以下3步
  • 大文件进行分割切片(此处切片只是打上标记)
  • 对于分割后的slice,使用线程池进行处理
  • 收集处理结果统计

部分核心代码如下:

public void start(){
        long everySize = this.fileLength/this.threadPoolSize;
        try {
            calculateStartEnd(0, everySize);
        } catch (IOException e) {
            e.printStackTrace();
            return;
        }

        final long startTime = System.currentTimeMillis();
        cyclicBarrier = new CyclicBarrier(startEndPairs.size(), () -> {
            System.out.println("use time: "+(System.currentTimeMillis()-startTime));
            System.out.println("all line: "+counter.get());
            shutdown();
        });
        for(StartEndPair pair:startEndPairs){
            System.out.println("分配分片:"+pair);
            this.executorService.execute(new SliceReaderTask(pair));
        }
    }
    public void run() {
            try {
                MappedByteBuffer mapBuffer = rAccessFile.getChannel().map(FileChannel.MapMode.READ_ONLY, start, this.sliceSize);
                ByteArrayOutputStream bos = new ByteArrayOutputStream();
                for (int offset = 0; offset < sliceSize; offset += bufferSize) {
                    int readLength;
                    if (offset + bufferSize <= sliceSize) {
                        readLength = bufferSize;
                    } else {
                        readLength = (int) (sliceSize - offset);
                    }
                    mapBuffer.get(readBuff, 0, readLength);
                    for (int i = 0; i < readLength; i++) {
                        byte tmp = readBuff[i];
                        //碰到换行符
                        if (tmp == '\n' || tmp == '\r') {
                            handle(bos.toByteArray());
                            bos.reset();
                        } else {
                            bos.write(tmp);
                        }
                    }
                }
                if (bos.size() > 0) {
                    handle(bos.toByteArray());
                }
                cyclicBarrier.await();//测试性能用
            } catch (Exception e) {
                e.printStackTrace();
            }
     }

实际执行效果

是骡子是?,需要拉出来遛遛,文件大小4.75GB,文件格式csv

java io读取大文件 java如何读取大文件_超大文件读取_02

使用BufferReader 执行效果

600w+数据,cost=67s

要说明的是,该文件其实是有3000w+数据的,此处只读了600w+是因为读到此处时,下一行为空,下下行才有数据,判断在空的时候终止了

java io读取大文件 java如何读取大文件_极速读取超大文件_03

使用改造后的NIO零拷贝的效果

3000w+数据,cost=86s

java io读取大文件 java如何读取大文件_超大文件读取_04


java io读取大文件 java如何读取大文件_java io读取大文件_05

总结

使用第一种处理速度也不算低,1min读取了600w数据,但显然,第二种,我只想说,woc,竟然这么快,????,1分半中读取了3000w+数据,读取速率大约33w/s!!!so, 大家会用脚投票的吧

注意事项

  • 使用第一种方式时,注意处理异常的情况,一旦处理遇到异常,直接就挂了,这种方式是阻塞顺序读的方式,可根据文件内容本身的顺序进行处理
  • 使用第二种方式时,主要不要使单个切片过大,不然会报错(单个切片size不要大于Integer.MAX_VALUE)
Exception in thread "main" java.lang.IllegalArgumentException: Size exceeds Integer.MAX_VALUE
    at sun.nio.ch.FileChannelImpl.map(FileChannelImpl.java:868)

FAQ

大家有问题可以在此处反馈,不保证会处理,但如果看到觉得有意思,一时兴起会处理一波

最重要的事

最重要的事,那必须是源代码了,龟派气功=>=>=>=> 超大文件极速读取工具 使用方式已经在README里说明,欢迎感兴趣的兄弟star