[英]Error while running first Pyspark program in Jupyter
我是 Pyspark 的初学者,试图在 Jupyter 笔记本中执行几行代码。 我已经按照互联网上可用的说明(很旧 - https://changhsinlee.com/install-pyspark-windows-jupyter/ )来配置 Pyspark 后安装 Python-3.8.5,Java(jdk-16),spark- 3.1.1-bin-hadoop2.7。
以下是安装后成功执行并在“df.show()”之后抛出异常的行。我已经添加了所有必要的环境变量。 请帮我解决这个问题。
pip 安装 pyspark
pip 安装 findspark
导入 findspark
findspark.init()
进口 pyspark
从 pyspark.sql 导入 SparkSession
spark=SparkSession.builder.getOrCreate()
df=spark.sql('''你好''')
df.show() 异常
在评论部分添加了错误。
注意:我是 Python 的初学者。 没有java知识
必须将 Java 版本更改为 Java 11。它现在可以工作了。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.