繁体   English   中英

使用Scala 2.11在独立模式下运行Spark?

[英]Run Spark in standalone mode with Scala 2.11?

我按照说明使用Scala 2.11构建Spark:

mvn -Dscala-2.11 -DskipTests clean package

然后我按照说明启动:

./sbin/start-master.sh

它在日志文件中以两行失败:

Failed to find Spark assembly in /etc/spark-1.2.1/assembly/target/scala-2.10
You need to build Spark before running this program.

显然,它正在寻找一个scala-2.10构建,但是我做了一个scala-2.11构建。 我尝试了显而易见的-Dscala-2.11标志,但这并没有改变任何东西。 文档没有提及有关如何在scala 2.11的独立模式下运行的任何内容。

提前致谢!

构建之前,必须在以下位置运行脚本:

开发/ change-version-to-2.11.sh

应该用2.11替换对2.10的引用。

注意,这对于非GNU sed(例如OS X)不一定能按预期工作

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM