[英]Unable to import pyspark to python
我有 pyspark 腳本(p1),它創建了數據幀並返回 dataframe。 同樣被導入不同的 python 腳本(p2)。 當我直接運行 p1 時,腳本成功執行,但是當我運行 p2 時,它失敗說“找不到模塊 p1”。 我已將 p1 導入 p2 腳本。
請指教。
使用--py-files
參數傳遞 python 腳本
對不起,我不清楚我在上面的消息中做了什么。
p1:
import...
spark = SparkSession.()
def func(query)
df = spark.sql(query)
return df
p2:
import...
import p1
df2 = p1.func('select * from tab')
df2.show()
然后將 p2 作為 python3 p2.py 運行——它說找不到模塊 p1
當我運行 p1 本身時,它可以工作
我刪除了與 spark 相關的命令,並放置了一些 python 函數,例如 print('abcd') 它工作正常。 所以我缺少與 pyspark 相關的要導入的內容。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.