[英]Run Spark in standalone mode with Scala 2.11?
我按照说明使用Scala 2.11构建Spark:
mvn -Dscala-2.11 -DskipTests clean package
然后我按照说明启动:
./sbin/start-master.sh
它在日志文件中以两行失败:
Failed to find Spark assembly in /etc/spark-1.2.1/assembly/target/scala-2.10
You need to build Spark before running this program.
显然,它正在寻找一个scala-2.10构建,但是我做了一个scala-2.11构建。 我尝试了显而易见的-Dscala-2.11标志,但这并没有改变任何东西。 文档没有提及有关如何在scala 2.11的独立模式下运行的任何内容。
提前致谢!
构建之前,必须在以下位置运行脚本:
开发/ change-version-to-2.11.sh
应该用2.11替换对2.10的引用。
注意,这对于非GNU sed(例如OS X)不一定能按预期工作
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.