简体   繁体   English

Pyspark 中 SparkSession 的导入错误

[英]Import Error for SparkSession in Pyspark

I have version 2.0 of Spark installed.我安装了 Spark 2.0 版。 I am using Pyspark, on Python 2.7.我在 Python 2.7 上使用 Pyspark。 I seem to have no difficulties creating a SparkContext, but for some reason I am unable to import the SparkSession.创建 SparkContext 似乎没有任何困难,但由于某种原因,我无法导入 SparkSession。 Does anyone know what I am doing wrong?有谁知道我做错了什么?

import pyspark
import pyspark.sql
from pyspark.sql import SparkSession
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
 ImportError: cannot import name SparkSession

Oddly enough this worked perfectly from a different directory.奇怪的是,这在不同的目录中工作得很好。 Running the files from this path did not result in an error!从这个路径运行文件没有导致错误!

/Users/.../spark-2.1.0-bin-hadoop2.7/python/ /用户/.../spark-2.1.0-bin-hadoop2.7/python/

SparkSession 是在 Apache Spark 2 中引入的。要使用它,您应该在运行 pyspark 之前指定正确的 spark 版本:

export SPARK_MAJOR_VERSION=2

export the correct spark version of spark installed by you, it worked for me for my version 2.3导出您安装的正确 spark 版本的 spark,它适用于我的 2.3 版

export SPARK_VERSION=2.3导出 SPARK_VERSION=2.3

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM