[英]How to read 2 gb file from one folder in S3 bucket and process it using spring batch, Now Im getting out of memory issue
獲取堆 memory 問題,因為我試圖在 memory 中保存整個 2gb 文件
請幫助讀取塊中的數據
下次請提供一些代碼,說明您如何訪問 S3 object。
但作為一種猜測,我假設您正在獲取一個S3ObjectInputStream ,然后使用 function 讀取一個 go 中byte[]
中的所有字節,然后您將獲得 memory 異常。
這個問題的一般技術是同時打開輸入 stream 和 output stream 並一次讀取字節的“緩沖區”。
這個問題在實用程序中已經解決了很多次,例如 Apache 的 IO Utils,在這里閱讀copyLarge
https://commons.apache.org/proper/commons-io/javadocs/api-2.5/org/apache/commons/io/IOUtils .html
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.