[英]Import Error for SparkSession in Pyspark
I have version 2.0 of Spark installed.我安装了 Spark 2.0 版。 I am using Pyspark, on Python 2.7.
我在 Python 2.7 上使用 Pyspark。 I seem to have no difficulties creating a SparkContext, but for some reason I am unable to import the SparkSession.
创建 SparkContext 似乎没有任何困难,但由于某种原因,我无法导入 SparkSession。 Does anyone know what I am doing wrong?
有谁知道我做错了什么?
import pyspark
import pyspark.sql
from pyspark.sql import SparkSession
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
ImportError: cannot import name SparkSession
Oddly enough this worked perfectly from a different directory.奇怪的是,这在不同的目录中工作得很好。 Running the files from this path did not result in an error!
从这个路径运行文件没有导致错误!
/Users/.../spark-2.1.0-bin-hadoop2.7/python/ /用户/.../spark-2.1.0-bin-hadoop2.7/python/
SparkSession 是在 Apache Spark 2 中引入的。要使用它,您应该在运行 pyspark 之前指定正确的 spark 版本:
export SPARK_MAJOR_VERSION=2
export the correct spark version of spark installed by you, it worked for me for my version 2.3导出您安装的正确 spark 版本的 spark,它适用于我的 2.3 版
export SPARK_VERSION=2.3导出 SPARK_VERSION=2.3
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.