簡體   English   中英

如何從 Java 連接到 csv 文件並將其寫入 Databricks Apache Spark 的遠程實例?

[英]How do I connect to and write a csv file to a remote instance of Databricks Apache Spark from Java?

我正在嘗試連接到 Databricks 的遠程實例並將 csv 文件寫入 DBFS 的特定文件夾。 我可以在這里和那里找到零碎的東西,但我不知道如何完成這項工作。 如何從本地計算機上運行的 Java 程序將文件添加到遠程 Databricks 實例上的 DBFS?

我目前正在使用從這里創建的社區實例: https://databricks.com/try-databricks

這是我的實例的 url(我猜“o=7823909094774610”正在識別我的實例)。
https://community.cloud.databricks.com/?o=7823909094774610

以下是我正在尋找解決此問題的一些資源,但我仍然無法起步:

您可以查看DBFS REST API ,並考慮在您的 Java 應用程序中使用它。

如果不需要 Java 解決方案,那么您也可以查看databricks-cli 使用 pip ( pip install databricks-cli ) 安裝后,您只需:

  1. 通過運行配置 CLI: databricks configure
  2. 通過運行將文件復制到 DBFS: databricks fs cp <source> dbfs:/<target>

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM