[英]How to do custom partition in spark dataframe with saveAsTextFile
[英]Why saveAsTextFile do nothing?
我正在尝试在Scala + Spark中实现简单的WordCount。 这是我的代码
object FirstObject {
def main(args: Array[String]) {
val input = "/Data/input"
val conf = new SparkConf().setAppName("Simple Application")
.setMaster("spark://192.168.1.162:7077")
val sparkContext = new SparkContext(conf)
val text = sparkContext.textFile(input).cache()
val wordCounts = text.flatMap(line => line.split(" "))
.map(word => (word,1))
.reduceByKey((a,b) => a+b)
.sortByKey()
wordCounts.saveAsTextFile("/Data/output")
}
这项工作持续了54s
,最终什么也没做。 是不将输出写入/Data/output
另外,如果我用forEach(println)
替换saveAsTextFile
,则会产生所需的输出。
您应该检查/ data / output文件夹的用户权限。 该文件夹应具有针对您的特定用户的写权限。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.