繁体   English   中英

如何将 a.hyper 文件(在 DataBricks 中)写入 Blob 存储(在 Azure 中)?

[英]How to Write a .hyper file (in DataBricks) to Blob Storage (in Azure)?

我使用https://github.com/goodwillpunning/hyperleaup创建了一个 .hyper 文件。 我想将创建的 hf 文件保存到现有的 azure blob 存储,而不是将其发布到 tableau 服务器。 如何在数据块中使用 Python(pyspark) 实现这一目标?

您需要创建一个HyperFile实例,并将is_dbfs_enabled参数设置为True ,然后使用save function 和指向 DBFS 上目标的path参数,但没有dbfs:/前缀 - 例如, /FileStore/

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM