簡體   English   中英

如何將 a.hyper 文件(在 DataBricks 中)寫入 Blob 存儲(在 Azure 中)?

[英]How to Write a .hyper file (in DataBricks) to Blob Storage (in Azure)?

我使用https://github.com/goodwillpunning/hyperleaup創建了一個 .hyper 文件。 我想將創建的 hf 文件保存到現有的 azure blob 存儲,而不是將其發布到 tableau 服務器。 如何在數據塊中使用 Python(pyspark) 實現這一目標?

您需要創建一個HyperFile實例,並將is_dbfs_enabled參數設置為True ,然后使用save function 和指向 DBFS 上目標的path參數,但沒有dbfs:/前綴 - 例如, /FileStore/

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM