簡體   English   中英

在 Jupyter 中運行第一個 Pyspark 程序時出錯

[英]Error while running first Pyspark program in Jupyter

我是 Pyspark 的初學者,試圖在 Jupyter 筆記本中執行幾行代碼。 我已經按照互聯網上可用的說明(很舊 - https://changhsinlee.com/install-pyspark-windows-jupyter/ )來配置 Pyspark 后安裝 Python-3.8.5,Java(jdk-16),spark- 3.1.1-bin-hadoop2.7。

以下是安裝后成功執行並在“df.show()”之后拋出異常的行。我已經添加了所有必要的環境變量。 請幫我解決這個問題。

pip 安裝 pyspark

pip 安裝 findspark

導入 findspark

findspark.init()

進口 pyspark

從 pyspark.sql 導入 SparkSession

spark=SparkSession.builder.getOrCreate()

df=spark.sql('''你好''')

df.show() 異常

在評論部分添加了錯誤。

注意:我是 Python 的初學者。 沒有java知識

必須將 Java 版本更改為 Java 11。它現在可以工作了。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM