簡體   English   中英

ImportError:無法從“pyspark.sql”導入名稱“HiveContext”

[英]ImportError: cannot import name 'HiveContext' from 'pyspark.sql'

我在我的 PC (windows 10) 上運行 pyspark,但我無法導入 HiveContext:

from pyspark.sql import HiveContext
---------------------------------------------------------------------------
ImportError                               Traceback (most recent call last)
<ipython-input-25-e3ae767de910> in <module>
----> 1 from pyspark.sql import HiveContext

ImportError: cannot import name 'HiveContext' from 'pyspark.sql' (C:\spark\spark-3.0.0-preview-bin-hadoop2.7\python\pyspark\sql\__init__.py)

我應該如何着手解決它?

您正在使用 Spark 3.0 的預覽版。 根據發行說明,您應該使用SparkSession.builder.enableHiveSupport()

在 Spark 3.0 中,已棄用的 HiveContext 類已被刪除。 請改用 SparkSession.builder.enableHiveSupport()。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM