繁体   English   中英

在 Jupyter 中运行第一个 Pyspark 程序时出错

[英]Error while running first Pyspark program in Jupyter

我是 Pyspark 的初学者,试图在 Jupyter 笔记本中执行几行代码。 我已经按照互联网上可用的说明(很旧 - https://changhsinlee.com/install-pyspark-windows-jupyter/ )来配置 Pyspark 后安装 Python-3.8.5,Java(jdk-16),spark- 3.1.1-bin-hadoop2.7。

以下是安装后成功执行并在“df.show()”之后抛出异常的行。我已经添加了所有必要的环境变量。 请帮我解决这个问题。

pip 安装 pyspark

pip 安装 findspark

导入 findspark

findspark.init()

进口 pyspark

从 pyspark.sql 导入 SparkSession

spark=SparkSession.builder.getOrCreate()

df=spark.sql('''你好''')

df.show() 异常

在评论部分添加了错误。

注意:我是 Python 的初学者。 没有java知识

必须将 Java 版本更改为 Java 11。它现在可以工作了。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM