![](/img/trans.png)
[英]Pyspark error instantiating 'org.apache.spark.sql.hive.HiveSessionStateBuilder':"
[英]Spark installation issue: Error while instantiating org.apache.spark.sql.hive.HiveSessionStateBuilder
我遵循了Spark的所有環境變量和安裝說明。 現在,當我運行pyspark
,出現以下錯誤:
pyspark.sql.utils.IllegalArgumentException:u“實例化org.apache.spark.sql.hive.HiveSessionStateBuilder時出錯:”
我已經添加了PATH,HADOOP_HOME,SPARK_HOME以及winutil.exe文件。 還嘗試了針對上述錯誤在網絡上發布的解決方案之一,說要更改這樣的權限
C:\winutils\bin>winutils.exe chmod 777 \tmp\hive
沒事。
正如您在上面看到的那樣,spark確實會啟動,但其他任何方法都不會起作用。 輸入以下命令時,請參見下文:
我在這里想念什么?
(假設在Windows環境中)檢查並設置如下所示的權限。
C:\spark\spark-2.2.0-bin-hadoop2.7\bin>%HADOOP_HOME%\bin\winutils.exe ls \tmp\hive
drwx------ 1 BUILTIN\Administrators CORP\Domain Users 0 Oct 13 2017 \tmp\hive
C:\spark\spark-2.2.0-bin-hadoop2.7\bin>%HADOOP_HOME%\bin\winutils.exe chmod 777 \tmp\hive
C:\spark\spark-2.2.0-bin-hadoop2.7\bin>%HADOOP_HOME%\bin\winutils.exe ls \tmp\hive
drwxrwxrwx 1 BUILTIN\Administrators CORP\Domain Users 0 Oct 13 2017 \tmp\hive
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.