[英]How to Compile Apache Spark with Scala 2.11.1 using SBT?
I've been trying to compile Apache spark with scala-2.11.1
(the latest version at the time). 我一直在尝试使用
scala-2.11.1
(当时的最新版本)编译Apache spark。 However, each time I try it ends up compiling everything to scala-2.10.*
. 但是,每次我尝试它最终都会编译
scala-2.10.*
。 I don't understand why. 我不明白为什么。
The official documentation suggests that we use maven for compilation after switching to 2.11 using script in the dev/
folder. 官方文档建议我们使用
dev/
文件夹中的脚本切换到2.11后使用maven进行编译。
What if I wanted to use sbt instead? 如果我想使用sbt怎么办?
You need to enable scala-2.11
profile 您需要启用
scala-2.11
配置文件
>sbt -Dscala-2.11=true
sbt> compile
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.