[英]Error: Could not find or load main class org.apache.spark.launcher.Main in Java Spark
[英]Spark cannot find- spark-class-launcher-output-28018.txt
使用Spark1.6.2,win7-64,jdk8,有winutils,HADOOP_HOME。 具有有效的 spark 設置,可以運行示例,啟動 spark-shell 等 %temp% 已正確設置 C:\Users\~\AppData\Local\Temp
spark-submit --class "com.iot.app.spark.processor.IoTDataProcessor" iot-spark-processor-1.0.0.jar
系統找不到
file C:\Users\~\AppData\Local\Temp\spark-class-launcher-output-28018.txt
謝謝
List current permissions: %HADOOP_HOME%\bin\winutils.exe ls \tmp\hive
Set permissions: %HADOOP_HOME%\bin\winutils.exe chmod 777 \tmp\hive
Set permissions: %HADOOP_HOME%\bin\winutils.exe chmod 777 C:\Users\~\AppData\Local\Temp
這是關於使用
""
類名
聽起來您遇到了JAVA_HOME
路徑配置錯誤的問題,這給您帶來了問題。 添加環境變量名稱JAVA_HOME
並添加 jdk 路徑作為值。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.