[英]What is the best approach to processing very large CSV files with apache Camel?
我正在將apache camel視為最適合以CSV開頭的ETL過程。
這個文件將是數百萬行,並且有一個不合適的列數(~500)
到目前為止,我已經看了幾個不同的選項 - 使用CSV數據格式進行解組,還使用camel-bindy,但沒有完全按照我的預期進行操作。
csv數據格式解析每一行,然后將列表列表傳遞給下一個處理器 - 因此,如果有數百萬行選項,它將會耗盡內存/堆空間。
這種束縛的方法看起來很棒! 直到我解決了我需要將csv中的每一列映射到pojo,其中99%我不感興趣。
所以問題是 - 我是否需要逐行編寫一個明確的處理器或組件,它將處理每行的轉換並將其傳遞給路徑中的下一個(),或者是否有其他選項我沒有遇到過然而?
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.