繁体   English   中英

ImportError:无法从“pyspark.sql”导入名称“HiveContext”

[英]ImportError: cannot import name 'HiveContext' from 'pyspark.sql'

我在我的 PC (windows 10) 上运行 pyspark,但我无法导入 HiveContext:

from pyspark.sql import HiveContext
---------------------------------------------------------------------------
ImportError                               Traceback (most recent call last)
<ipython-input-25-e3ae767de910> in <module>
----> 1 from pyspark.sql import HiveContext

ImportError: cannot import name 'HiveContext' from 'pyspark.sql' (C:\spark\spark-3.0.0-preview-bin-hadoop2.7\python\pyspark\sql\__init__.py)

我应该如何着手解决它?

您正在使用 Spark 3.0 的预览版。 根据发行说明,您应该使用SparkSession.builder.enableHiveSupport()

在 Spark 3.0 中,已弃用的 HiveContext 类已被删除。 请改用 SparkSession.builder.enableHiveSupport()。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM