[英]Error while running first Pyspark program in Jupyter
我是 Pyspark 的初學者,試圖在 Jupyter 筆記本中執行幾行代碼。 我已經按照互聯網上可用的說明(很舊 - https://changhsinlee.com/install-pyspark-windows-jupyter/ )來配置 Pyspark 后安裝 Python-3.8.5,Java(jdk-16),spark- 3.1.1-bin-hadoop2.7。
以下是安裝后成功執行並在“df.show()”之后拋出異常的行。我已經添加了所有必要的環境變量。 請幫我解決這個問題。
pip 安裝 pyspark
pip 安裝 findspark
導入 findspark
findspark.init()
進口 pyspark
從 pyspark.sql 導入 SparkSession
spark=SparkSession.builder.getOrCreate()
df=spark.sql('''你好''')
df.show() 異常
在評論部分添加了錯誤。
注意:我是 Python 的初學者。 沒有java知識
必須將 Java 版本更改為 Java 11。它現在可以工作了。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.