簡體   English   中英

Spark安裝問題:實例化org.apache.spark.sql.hive.HiveSessionStateBuilder時出錯

[英]Spark installation issue: Error while instantiating org.apache.spark.sql.hive.HiveSessionStateBuilder

我遵循了Spark的所有環境變量和安裝說明。 現在,當我運行pyspark ,出現以下錯誤:

pyspark.sql.utils.IllegalArgumentException:u“實例化org.apache.spark.sql.hive.HiveSessionStateBuilder時出錯:”

在此處輸入圖片說明

我已經添加了PATH,HADOOP_HOME,SPARK_HOME以及winutil.exe文件。 還嘗試了針對上述錯誤在網絡上發布的解決方案之一,說要更改這樣的權限

C:\winutils\bin>winutils.exe chmod 777 \tmp\hive

沒事。

正如您在上面看到的那樣,spark確實會啟動,但其他任何方法都不會起作用。 輸入以下命令時,請參見下文:

在此處輸入圖片說明

我在這里想念什么?

(假設在Windows環境中)檢查並設置如下所示的權限。

C:\spark\spark-2.2.0-bin-hadoop2.7\bin>%HADOOP_HOME%\bin\winutils.exe ls \tmp\hive
drwx------ 1 BUILTIN\Administrators CORP\Domain Users 0 Oct 13 2017 \tmp\hive

C:\spark\spark-2.2.0-bin-hadoop2.7\bin>%HADOOP_HOME%\bin\winutils.exe chmod 777 \tmp\hive

C:\spark\spark-2.2.0-bin-hadoop2.7\bin>%HADOOP_HOME%\bin\winutils.exe ls \tmp\hive
drwxrwxrwx 1 BUILTIN\Administrators CORP\Domain Users 0 Oct 13 2017 \tmp\hive

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM