JAVA使用POI如何匯出百萬級別資料(轉載)
用過POI的人都知道,在POI以前的版本中並不支援大資料量的處理,如果資料量過多還會常報OOM錯誤,這時候調整JVM的配置引數也不是一個好對策(注:jdk在32位系統中支援的記憶體不能超過2個G,而在64位中沒有限制,但是在64位的系統中,效能並不是太好),好在POI3.8版本新出來了一個SXSSFWorkbook物件,它就是用來解決大資料量以及超大資料量的匯入匯出操作的,但是SXSSFWorkbook只支援.xlsx格式,不支援.xls格式的Excel檔案。
這裡普及一下,在POI中使用HSSF物件時,excel 2003最多隻允許儲存65536條資料,一般用來處理較少的資料量,這時對於百萬級別資料,Excel肯定容納不了,而且在計算機效能稍低的機器上測試,就很容易導致堆溢位。而當我升級到XSSF物件時,它可以直接支援excel2007以上版本,因為它採用ooxml格式。這時excel可以支援1048576條資料,單個sheet表就支援近104萬條資料了,雖然這時匯出100萬資料能滿足要求,但使用XSSF測試後發現偶爾還是會發生堆溢位,所以也不適合百萬資料的匯出。
現在我們知道excel2007及以上版本可以輕鬆實現儲存百萬級別的資料,但是系統中的大量資料是如何能夠快速準確的匯入到excel中這好像是個難題,對於一般的web系統,我們為了解決成本,基本都是使用的入門級web伺服器tomcat,既然我們不推薦調整JVM的大小,那我們就要針對我們的程式碼來解決我們要解決的問題。在POI3.8之後新增加了一個類,SXSSFWorkbook,採用當資料加工時不是類似前面版本的物件,它可以控制excel資料佔用的記憶體,他通過控制在記憶體中的行數來實現資源管理,即當建立物件超過了設定的行數,它會自動重新整理記憶體,將資料寫入檔案,這樣導致列印時,佔用的CPU,和記憶體很少。但有人會說了,我用過這個類啊,他好像並不能完全解決,當資料量超過一定量後還是會記憶體溢位的,而且時間還很長。對你只是用了這個類,但是你並沒有針對你的需求進行相應的設計,僅僅是用了,所以接下來我要說的問題就是,如何通過SXSSFWorkbook以及相應的寫入設計來實現百萬級別的資料快速寫入。
我先舉個例子,以前我們資料庫中存在大量的資料,我們要查詢,怎麼辦?我們在沒有經過設計的時候是這樣來處理的,先寫一個集合,然後執行jdbc,將返回的結果賦值給list,然後再返回到頁面上,但是當資料量大的時候,就會出現資料無法返回,記憶體溢位的情況,於是我們在有限的時間和空間下,通過分頁將資料一頁一頁的顯示出來,這樣可以避免了大資料量資料對記憶體的佔用,也提高了使用者的體驗,在我們要匯出的百萬資料也是一個道理,記憶體突發性佔用,我們可以限制匯出資料所佔用的記憶體,這裡我先建立一個list容器,list中開闢10000行的儲存空間,每次儲存10000行,用完了將內容清空,然後重複利用,這樣就可以有效控制記憶體,所以我們的設計思路就基本形成了,所以分頁資料匯出共有以下3個步驟:
1、求資料庫中待匯出資料的行數
2、根據行數求資料提取次數
3、按次數將資料寫入檔案
通過以上步驟在效率和使用者體驗性上都有了很高的提高,接下來上程式碼
public void exportBigDataExcel(ValueDataDto valueDataDto, String path) throws IOException { // 最重要的就是使用SXSSFWorkbook,表示流的方式進行操作 // 在記憶體中保持100行,超過100行將被重新整理到磁碟 SXSSFWorkbook wb = new SXSSFWorkbook(100); Sheet sh = wb.createSheet(); // 建立新的sheet物件 Row row = sh.createRow(0); // 建立第一行物件 // -----------定義表頭----------- Cell cel0 = row.createCell(0); cel0.setCellValue("1"); Cell cel2 = row.createCell(1); cel2.setCellValue("2"); Cell cel3 = row.createCell(2); cel3.setCellValue("3"); Cell cel4 = row.createCell(3); // --------------------------- List<valuedatabean> list = new ArrayList<valuedatabean>(); // 資料庫中儲存的資料行 int page_size = 10000; // 求資料庫中待匯出資料的行數 int list_count = this.daoUtils.queryListCount(this.valueDataDao .queryExportSQL(valueDataDto).get("count_sql")); // 根據行數求資料提取次數 int export_times = list_count % page_size > 0 ? list_count / page_size + 1 : list_count / page_size; // 按次數將資料寫入檔案 for (int j = 0; j < export_times; j++) { list = this.valueDataDao.queryPageList(this.valueDataDao .queryExportSQL(valueDataDto).get("list_sql"), j + 1, page_size); int len = list.size() < page_size ? list.size() : page_size;
<span style="white-space:pre"> </span> for (int i = 0; i < len; i++) { Row row_value = sh.createRow(j * page_size + i + 1); Cell cel0_value = row_value.createCell(0); cel0_value.setCellValue(list.get(i).getaa()); Cell cel2_value = row_value.createCell(1); cel2_value.setCellValue(list.get(i).getaa()); Cell cel3_value = row_value.createCell(2); cel3_value.setCellValue(list.get(i).getaa_person()); } list.clear(); // 每次儲存len行,用完了將內容清空,以便記憶體可重複利用 } FileOutputStream fileOut = new FileOutputStream(path); wb.write(fileOut); fileOut.close(); wb.dispose(); }
到目前已經可以實現百萬資料的匯出了,但是當我們的業務資料超過200萬,300萬了呢?如何解決?
這時,直接列印資料到一個工作簿的一個工作表是實現不了的,必須拆分到多個工作表,或者多個工作簿中才能實現。因為一個sheet最多行數為1048576。
下面就以這種思路提供另外一種解決方案,直接上程式碼(後面會附上測試資料庫,及案例需要的jar包)
public static void main(String[] args) throws Exception { Test3SXXFS tm = new Test3SXXFS(); tm.jdbcex(true); } public void jdbcex(boolean isClose) throws InstantiationException, IllegalAccessException, ClassNotFoundException, SQLException, IOException, InterruptedException { String xlsFile = "f:/poiSXXFSBigData.xlsx"; //輸出檔案 //記憶體中只建立100個物件,寫臨時檔案,當超過100條,就將記憶體中不用的物件釋放。 Workbook wb = new SXSSFWorkbook(100); //關鍵語句 Sheet sheet = null; //工作表物件 Row nRow = null; //行物件 Cell nCell = null; //列物件 //使用jdbc連結資料庫 Class.forName("com.mysql.jdbc.Driver").newInstance(); String url = "jdbc:mysql://localhost:3306/bigdata?characterEncoding=UTF-8"; String user = "root"; String password = "123456"; //獲取資料庫連線 Connection conn = DriverManager.getConnection(url, user,password); Statement stmt = conn.createStatement(ResultSet.TYPE_SCROLL_SENSITIVE,ResultSet.CONCUR_UPDATABLE); String sql = "select * from hpa_normal_tissue limit 1000000"; //100萬測試資料 ResultSet rs = stmt.executeQuery(sql); ResultSetMetaData rsmd = rs.getMetaData(); long startTime = System.currentTimeMillis(); //開始時間 System.out.println("strat execute time: " + startTime); int rowNo = 0; //總行號 int pageRowNo = 0; //頁行號 while(rs.next()) { //列印300000條後切換到下個工作表,可根據需要自行拓展,2百萬,3百萬...資料一樣操作,只要不超過1048576就可以 if(rowNo%300000==0){ System.out.println("Current Sheet:" + rowNo/300000); sheet = wb.createSheet("我的第"+(rowNo/300000)+"個工作簿");//建立新的sheet物件 sheet = wb.getSheetAt(rowNo/300000); //動態指定當前的工作表 pageRowNo = 0; //每當新建了工作表就將當前工作表的行號重置為0 } rowNo++; nRow = sheet.createRow(pageRowNo++); //新建行物件 // 列印每行,每行有6列資料 rsmd.getColumnCount()==6 --- 列屬性的個數 for(int j=0;j<rsmd.getColumnCount();j++){ nCell = nRow.createCell(j); nCell.setCellValue(rs.getString(j+1)); } if(rowNo%10000==0){ System.out.println("row no: " + rowNo); } // Thread.sleep(1); //休息一下,防止對CPU佔用,其實影響不大 } long finishedTime = System.currentTimeMillis(); //處理完成時間 System.out.println("finished execute time: " + (finishedTime - startTime)/1000 + "m"); FileOutputStream fOut = new FileOutputStream(xlsFile); wb.write(fOut); fOut.flush(); //重新整理緩衝區 fOut.close(); long stopTime = System.currentTimeMillis(); //寫檔案時間 System.out.println("write xlsx file time: " + (stopTime - startTime)/1000 + "m"); if(isClose){ this.close(rs, stmt, conn); } } //執行關閉流的操作 private void close(ResultSet rs, Statement stmt, Connection conn ) throws SQLException{ rs.close(); stmt.close(); conn.close(); }
資料庫截圖:
案例執行結果截圖: