[英]Apache spark - convert JavaRDD to csv file
我尝试使用Apache Spark将org.apache.spark.api.java.JavaRDD<Object>
编写为管道分隔文本到.txt
文件。 为此,我正在使用spark提供的saveAsTextFile
方法。 但是这种方法的问题是,它没有格式化就直接将对象写入文件,而且我也无法提供正确的文件名。
因此,这是将对象格式化/转换为竖线分隔的字符串并将其写入.txt文件的最佳方法,也是命名文件的正确方法。
这是build.gradle
依赖build.gradle
dependencies {
provided(
[group: 'org.apache.spark', name: 'spark-core_2.10', version: '1.4.0'],
[group: 'org.apache.spark', name: 'spark-sql_2.10', version: '1.4.0'],
[group: 'com.datastax.spark', name: 'spark-cassandra-connector-java_2.10', version: '1.4.0']
)
compile([
[group: 'com.databricks', name: 'spark-csv_2.10', version: '1.4.0'],
])
}
这是完整的代码,可用于格式化数据:
String args[] = {"/Users/***/Documents/hContent/input/***/micro-/sample.txt",
"Users/**/Documents/hadoop/output"};
SparkConf conf = new SparkConf();
JavaSparkContext sc = new JavaSparkContext("local", "MaxTemperatureSpark", conf);
JavaRDD<String> lines = sc.textFile(args[0]);
JavaRDD<String[]> records = lines.map(new Function<String, String[]>(){
public String[] call(String t){
return t.split("\t");
}
});
JavaRDD<String[]> filtered = records.filter(new Function<String[], Boolean>() {
public Boolean call(String[] rec) throws Exception {
// TODO Auto-generated method stub
return rec[0] != "9999" && rec[1].matches("[01459]");
}
});
JavaPairRDD<Integer, Integer> tuples = filtered.mapToPair(
new PairFunction<String[], Integer, Integer>() {
public Tuple2<Integer, Integer> call(String[] rec) throws Exception {
// TODO Auto-generated method stub
return new Tuple2<Integer, Integer>(
Integer.parseInt(rec[0]), Integer.parseInt(rec[1]));
}
}
);
JavaPairRDD<Integer, Integer> maxTemps = tuples.reduceByKey(
new Function2<Integer, Integer, Integer>() {
public Integer call(Integer arg0, Integer arg1) throws Exception {
// TODO Auto-generated method stub
return Math.max(arg0, arg1);
}
}
);
maxTemps.saveAsTextFile(args[1]);
请注意,输出文件夹指定了将在其中创建输出文件的位置,并且文件名以“ part-00000”开头。 因此,您可以解析输出文件夹并搜索文件。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.