[英]How to load large data set from calling a procedure (Table Input) to destination table efficiently through Pentaho kettle?
[英]Using Pentaho Kettle, how to load data in output table from CSV file with intermediary step reading in an input table?
我有一个CSV文件,其中包含我需要使用Pentaho ETL Kettle加载到数据库表中的数据。 但是在将它们加载到表中之前,我需要构建每行以插入从CSV文件中获取的值以及必须从另一个输入表中收集的值(该表需要从CSV中获取数据作为参数来收集所需信息)。 我对构建转换所必须使用的步骤有些迷惑。 有人可以帮忙吗?
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.