[英]Pyspark - ImportError: cannot import name 'SparkContext' from 'pyspark'
[英]ImportError: cannot import name 'HiveContext' from 'pyspark.sql'
我在我的 PC (windows 10) 上运行 pyspark,但我无法导入 HiveContext:
from pyspark.sql import HiveContext
---------------------------------------------------------------------------
ImportError Traceback (most recent call last)
<ipython-input-25-e3ae767de910> in <module>
----> 1 from pyspark.sql import HiveContext
ImportError: cannot import name 'HiveContext' from 'pyspark.sql' (C:\spark\spark-3.0.0-preview-bin-hadoop2.7\python\pyspark\sql\__init__.py)
我应该如何着手解决它?
您正在使用 Spark 3.0 的预览版。 根据发行说明,您应该使用SparkSession.builder.enableHiveSupport()
。
在 Spark 3.0 中,已弃用的 HiveContext 类已被删除。 请改用 SparkSession.builder.enableHiveSupport()。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.