1、概述
本教學將示範如何用Java有效率地讀取大檔案。這篇文章是Baeldung (http://www.baeldung.com/) 上「Java-回歸基礎」系列教學的一部分。
2、在記憶體中讀取
讀取檔案行的標準方式是在記憶體中讀取,Guava 和Apache Commons IO都提供瞭如下所示快速讀取檔案行的方法:
Files.readLines(new File(path), Charsets.UTF_8); FileUtils.readLines(new File(path));
這種方法帶來的問題是檔案的所有行都存放在記憶體中,當檔案夠大時很快就會導致程式拋出OutOfMemoryError 異常。
例如:讀取一個大約1G的檔案:
@Test public void givenUsingGuava_whenIteratingAFile_thenWorks() throws IOException { String path = ... Files.readLines(new File(path), Charsets.UTF_8); }
這種方式開始時只佔用很少的記憶體:(大約消耗了0Mb記憶體)
[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 128 Mb [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 116 Mb
然而,當檔案全部讀到記憶體後,我們最後可以看到(大約消耗了2GB記憶體):
[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 2666 Mb [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 490 Mb
這意味這一過程大約耗費了2.1GB的記憶體——原因很簡單:現在檔案的所有行都儲存在記憶體中。
把文件所有的內容都放在內存中很快會耗盡可用內存——不論實際可用內存有多大,這一點是顯而易見的。
此外,我們通常不需要把文件的所有行一次性地放入內存中——相反,我們只需要遍歷文件的每一行,然後做相應的處理,處理完之後把它扔掉。所以,這正是我們將要做的事——透過行迭代,而不是把所有行都放在記憶體中。
現在讓我們看下這種解決方案-我們將使用java.util.Scanner類掃描檔案的內容,一行一行連續地讀取:FileInputStream inputStream = null; Scanner sc = null; try { inputStream = new FileInputStream(path); sc = new Scanner(inputStream, "UTF-8"); while (sc.hasNextLine()) { String line = sc.nextLine(); // System.out.println(line); } // note that Scanner suppresses exceptions if (sc.ioException() != null) { throw sc.ioException(); } } finally { if (inputStream != null) { inputStream.close(); } if (sc != null) { sc.close(); } }
[main] INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 763 Mb [main] INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 605 Mb
reee
文件不是全部存放在記憶體中,這也導致相當保守的記憶體消耗:(大約消耗了150MB記憶體)LineIterator it = FileUtils.lineIterator(theFile, "UTF-8"); try { while (it.hasNext()) { String line = it.nextLine(); // do something with line } } finally { LineIterator.closeQuietly(it); }