繁体   English   中英

Pyspark 中 SparkSession 的导入错误

[英]Import Error for SparkSession in Pyspark

我安装了 Spark 2.0 版。 我在 Python 2.7 上使用 Pyspark。 创建 SparkContext 似乎没有任何困难,但由于某种原因,我无法导入 SparkSession。 有谁知道我做错了什么?

import pyspark
import pyspark.sql
from pyspark.sql import SparkSession
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
 ImportError: cannot import name SparkSession

奇怪的是,这在不同的目录中工作得很好。 从这个路径运行文件没有导致错误!

/用户/.../spark-2.1.0-bin-hadoop2.7/python/

SparkSession 是在 Apache Spark 2 中引入的。要使用它,您应该在运行 pyspark 之前指定正确的 spark 版本:

export SPARK_MAJOR_VERSION=2

导出您安装的正确 spark 版本的 spark,它适用于我的 2.3 版

导出 SPARK_VERSION=2.3

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM