[英]How to Write a .hyper file (in DataBricks) to Blob Storage (in Azure)?
我使用https://github.com/goodwillpunning/hyperleaup創建了一個 .hyper 文件。 我想將創建的 hf 文件保存到現有的 azure blob 存儲,而不是將其發布到 tableau 服務器。 如何在數據塊中使用 Python(pyspark) 實現這一目標?
您需要創建一個HyperFile
實例,並將is_dbfs_enabled
參數設置為True
,然后使用save function 和指向 DBFS 上目標的path
參數,但沒有dbfs:/
前綴 - 例如, /FileStore/
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.