簡體   English   中英

如何從 S3 存儲桶中的一個文件夾讀取 2 GB 文件並使用 spring 批處理處理它,現在我正在解決 memory 問題

[英]How to read 2 gb file from one folder in S3 bucket and process it using spring batch, Now Im getting out of memory issue

獲取堆 memory 問題,因為我試圖在 memory 中保存整個 2gb 文件

請幫助讀取塊中的數據

下次請提供一些代碼,說明您如何訪問 S3 object。

但作為一種猜測,我假設您正在獲取一個S3ObjectInputStream ,然后使用 function 讀取一個 go 中byte[]中的所有字節,然后您將獲得 memory 異常。

這個問題的一般技術是同時打開輸入 stream 和 output stream 並一次讀取字節的“緩沖區”。

這個問題在實用程序中已經解決了很多次,例如 Apache 的 IO Utils,在這里閱讀copyLarge https://commons.apache.org/proper/commons-io/javadocs/api-2.5/org/apache/commons/io/IOUtils .html

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM