[英]Spark seems to be installed but can't import pyspark module
我的pip install pyspark
工作正常,我在命令提示符下收到一条消息,指出SparkSession可以作为“ spark”使用。
但是,当我这样做时:
from pyspark import SparkContext
它给我一个:
ModuleNotFoundError: No module named 'pyspark'
有什么问题,我该如何解决?
您应该通过pip安装findspark模块,然后尝试:
import findspark
findspark.init('<your spark home directory for example /home/spark>')
然后您可以导入spark模块。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.