[英]How to Write a .hyper file (in DataBricks) to Blob Storage (in Azure)?
我使用https://github.com/goodwillpunning/hyperleaup创建了一个 .hyper 文件。 我想将创建的 hf 文件保存到现有的 azure blob 存储,而不是将其发布到 tableau 服务器。 如何在数据块中使用 Python(pyspark) 实现这一目标?
您需要创建一个HyperFile
实例,并将is_dbfs_enabled
参数设置为True
,然后使用save function 和指向 DBFS 上目标的path
参数,但没有dbfs:/
前缀 - 例如, /FileStore/
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.