[英]Open file on dbfs while using databricks-connect
我正在使用 databricks-connect 将我的本地 PyCharm IDE 连接到 Azure Databricks 集群。
在我尝试在没有 Spark 上下文的情况下访问文件之前,这完全可以正常工作。
例如
dbutils.fs.put('dbfs:/tmp/test_file.txt','line_1')
with open('/dbfs/tmp/test_file.txt') as f:
print(f.read())
直接在databricks笔记本中运行时工作正常。 当我尝试通过 PyCharm 中的 databricks-connect 运行此代码片段时,我收到 FileNotFoundError。 其他文件系统操作(shutil、gzip、...)也会发生这种情况。
我假设程序(“打开”)正在尝试访问运行 PyCharm 的本地客户端上的文件系统,但我想要“打开”和类似的功能来访问 dbfs。
有没有办法做到这一点?
open
的 function 属于 Python 文件 API,所以它只适用于本地文件,如果是 databricks-connect - 这是一个文件系统。 /dbfs/
安装点仅在集群节点上可用。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.