[英]Write spark dataframe from databricks onto the azure data lack store using R
[英]Create database in Azure Databricks using R dataframe
我在 R dataframe 中有我的最終 output。我需要將這個 output 寫入 Azure Databricks 中的數據庫。 有人可以幫我語法嗎? 我使用了這段代碼:
require(SparkR)
data1 <- createDataFrame(output)
write.df(data1, path="dbfs:/datainput/sample_dataset.parquet",
source="parquet", mode="overwrite")
這段代碼運行沒有錯誤,但我沒有在數據輸入文件夾中看到數據庫(在路徑中提到)。 還有其他方法嗎?
我相信你正在尋找saveAsTable write.df
特別是將數據保存在文件系統中,而不是將數據標記為表。
require(SparkR)
data1 <- createDataFrame(output)
saveAsTable(data1, tableName = "default.sample_table", source="parquet", mode="overwrite")
在上面的代碼中, default
是一些現有的數據庫名稱,將在其下創建一個名為sample_table
的新表。 如果您提到sample_table
而不是default.sample_table
那么它將保存在默認數據庫中。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.