[英]Error in Apache Spark called input path does not exist
Apache Spark中是否有任何算法可以找出文本文件中的频繁模式。 我尝试了以下示例,但始终会遇到此错误:
org.apache.hadoop.mapred.InvalidInputException:输入路径不存在:file:/D:/spark-1.3.1-bin-hadoop2.6/bin/data/mllib/sample_fpgrowth.txt
谁能帮我解决这个问题?
import org.apache.spark.mllib.fpm.FPGrowth
val transactions = sc.textFile("...").map(_.split(" ")).cache()
val model = new FPGrowth()
model.setMinSupport(0.5)
model.setNumPartitions(10)
model.run(transactions)
model.freqItemsets.collect().foreach {
itemset => println(itemset.items.mkString("[", ",", "]") + ", " + itemset.freq)
}
尝试这个
file://D:/spark-1.3.1-bin-hadoop2.6/bin/data/mllib/sample_fpgrowth.txt
要么
D:/spark-1.3.1-bin-hadoop2.6/bin/data/mllib/sample_fpgrowth.txt
如果不起作用,请用//
替换/
我假设您正在Windows上运行Spark。
使用类似的文件路径
D:\spark-1.3.1-bin-hadoop2.6\bin\data\mllib\sample_fpgrowth.txt
注意:如有必要,请转义“ \\”。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.