繁体   English   中英

在Windows 8 x64 PC上为本地模式编译Apache Spark 1.1.0? 查看特定错误

[英]Compiling Apache spark 1.1.0 on for localhost mode on windows 8 x64 PC? See specific errors

我已经明确安装了Java 8 SDK,Scala-IDE(经过修改的eclipse),普通的Eclipse IDE和sbt,但顺序不一。 我真的不记得我安装它们的顺序。 当我同时安装了香草Eclipse IDE和Scala IDE而不是命令行工具时,我对如何设置环境变量感到困惑,因为这些安装似乎与命令行安装不同地组织了语言环境? 所以我不是要指向变量指向什么?

我的理解是CLASS_PATH环境变量用于用户定义的类,而对于我当前的项目,我没有。 超出此。 我有以下环境变量设置。 我在Windows 8 x64上

SBT_HOME = C:\\Program Files (x86)\\sbt

JRE_HOME = C:\\Program Files\\Java\\jre1.8.0_20

JAVA_HOME = C:\\Program Files\\Java\\jdk1.8.0_20

Path = %JRE_HOME%\\bin;%JAVA_HOME%\\bin;C:\\ProgramData\\Oracle\\Java\\javapath;C:\\Program Files (x86)\\scala\\bin;C:\\Program Files (x86)\\sbt\\bin;...(only relevant paths shown)

在下载并解压缩Apache Spark 1.1.0并将其解压缩并进入未压缩的顶级文件夹~/(apache spark folder)/并尝试运行sbt/sbt assembly后,我使用cygwin命令提示符收到以下错误。

[error] (streaming-flume-sink/compile:compile) java.io.IOException: Cannot run p
rogram "javac": CreateProcess error=2, The system cannot find the file specified

[error] (core/compile:compile) java.io.IOException: Cannot run program "javac":
CreateProcess error=2, The system cannot find the file specified
[error] Total time: 551 s, completed Oct 28, 2014 5:24:00 PM

因此错误似乎是我无法在cygwin中运行javac 好吧,我不能。 因此,我也尝试了Windows提示符,我的命令javac实际上在这里运行(因为已经设置了enviro变量。)并且再次尝试时出现以下错误

`sbt/sbt assembly`. 
C:\Program Files (x86)\spark-1.1.0>sbt\sbt assembly
'sbt\sbt' is not recognized as an internal or external command,
operable program or batch file.
>sbt/sbt assembly
Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=256m; sup
port was removed in 8.0
[info] Loading project definition from C:\Program Files (x86)\spark-1.1.0\project\projec
t
[info] Loading project definition from C:\Users\jim\.sbt\0.13\staging\ec3aa8f391
11944cc5f2\sbt-pom-reader\project
[warn] Multiple resolvers having different access mechanism configured with same
 name 'sbt-plugin-releases'. To avoid conflict, Remove duplicate project resolve
rs (`resolvers`) or rename publishing resolver (`publishTo`).
[info] Loading project definition from C:\Program Files (x86)\spark-1.1.0\project
[error] Expected symbol
[error] Not a valid command: /
[error] /sbt
[error]  ^

但是同一命令的所有变体也不起作用,切换出斜杠类型( sbt\\sbt assembly )。

我还在没有空格的文件夹中产生了火花: C:\\Program Files (x86)\\spark

组装/编译Spark我需要做些什么?

太感谢了。

在Windows8中遇到相同的问题,并按照以下步骤解决了该问题

  • 创建一个没有空间的文件夹,然后从Program Files / Java复制内容
  • 将PATH和JAVA_HOME更新为新路径
  • 启动Cygwin并尝试运行javac命令以确保正确设置了环境变量
  • 尽管与该问题无关,但Scala Installed目录不应有任何空间。 我看到您已安装在程序文件中

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM