[英]Connecting with Blob Container in one specific notebook in DataBricks
我在 DataBricks 的一個集群下工作,該集群已經安裝了 blob 容器。 我想為整個集群保留一個容器,但為一個特定的筆記本(或 repo,這將是很棒的)安裝另一個已經創建的集群以從那里加載數據。 我怎樣才能做到?
例子:
回購 1 - blob 1:
您可以使用以下過程將數據加載到存儲帳戶中。
我在我的環境中用兩個復制品復制相同的東西
復制品 1:
容器名稱: input
掛載點: /mnt/hffj
復制品 2:
容器名稱: output
掛載點: /mnt/output
根據上述情況,您可以這樣做:
首先讀取數據框
df1 = spark.read.format("csv").option("header", "true").load("/mnt/hffj")
然后,將其寫入 repro 2 掛載路徑/mnt/output
。 數據存儲在該安裝位置
df1.coalesce(1).write.format('csv').mode("overwrite").save("/mnt/output")
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.