[英]Azure Databricks Python Job from several python files
Azure Databricks 仍然是新手。
我們在 Azure Databricks 工作區上創建了一個 Databricks 作業(類型:Python)。 到目前為止,我們能夠運行存儲在 DBFS 中的 python 腳本文件。
由於 python 文件的復雜性,我們正在考慮將代碼拆分為幾個 python 文件,然后有一個“main.py”來組織我們想要做的事情。
在本地,只要其他 python 文件與“main.py”位於同一文件夾下,我們就可以輕松導入這些文件並完成工作。 但在 Azure Databricks 上,它似乎更復雜。 即使我們在 DBFS 上的同一路徑下上傳 python 文件,它也會給出 ModuleNotFoundError:
ModuleNotFoundError: No module named 'part1' ModuleNotFoundError Traceback (last last 最近調用) ----> 1 import part1
感謝一些關於此的指南。 謝謝!
要解決此ModuleNotFoundError: No module named 'part1' ModuleNotFoundError Traceback (most recent call last) ----> 1 import part1
錯誤,請嘗試以下任一方法:
1.您可以指定路徑/dbfs/
:
import os
os.listdir('/dbfs/mnt/test_folder/test_folder1/’)
(謝謝Alex Ott 。發布您的建議作為幫助其他社區成員的答案。)
2.將dbfs:/
替換為/dbfs/
3.使用dbutils.fs.cp("dbfs:/FileStore/code", "file:/tmp/code", True)
將文件從 DBFS 復制到本地文件系統,並引用該本地文件名: /tmp/code
您可以參考 Databricks 中的Import python 模塊到 python 腳本和如何指定 DBFS 路徑
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.