[英]Save non-SparkDataFrame from Azure Databricks to local computer as .RData
[英]Save RData to Azure Blob Storage
我最近正在學習如何在 Azure Databricks 上使用 R 讀取和寫入文件到 Azure Blob 存儲。 是否有關於如何將 RData 文件保存到 Azure Blob 存儲的教程?
最新版本的 AzureStor 現在有一個storge_save_rdata
function:
bl <- blob_endpoint("https://myacct.blob.core.windows.net", key="mykey")
cont <- storage_container(bl, "mycontainer")
storage_save_rdata(iris, mtcars, container=cont, file="myblob.rdata")
有一種解決方案可以使用 AzureStor package 直接從 R 環境將數據幀作為 CSV 上傳。
w_con <- textConnection("foo", "w")
write.csv(ds,w_con)
r_con <- textConnection(textConnectionValue(w_con))
close(w_con)
upload_blob(container, src=r_con, dest=paste0("check_",ds[1, "Claim Number"], '_',ds[1, "Claim Type"], ".csv"))
close(r_con)
有關更多詳細信息,請參閱對 blob 容器或 blob 的操作。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.