繁体   English   中英

如何根据字段将数据从 CSV 加载到单独的 Hadoop HDFS 目录中

[英]How to Load data from CSV into separate Hadoop HDFS directories based on fields

我有一个 CSV 数据,我需要根据某个字段(年份)将其加载到 HDFS 目录中。 我打算使用Java。 我已经看过使用 BufferedReader 但是我在实现它时遇到了麻烦。 这是用于此任务的最佳方法还是有更好的方法?

使用 Spark 将 CSV 读入数据帧。

在写入 HDFS 期间使用partitionBy("year") ,它将在以year=开头的路径下为每个唯一值创建子文件夹。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM