簡體   English   中英

如何使用 spark (Eclipse) 從 Elasticsearch 讀取數據並將其轉換為表格格式

[英]How can i read data from Elasticsearch using spark (Eclipse) and convert it into tabular format

我已成功將 csv 文件推送到我的 elasticsearch 中。

val spark=SparkSession.builder()
  .appName("eswithfunctions")
  .config("spark.master","local")
  .config("spark.es.nodes","localhost")
  .config("spark.es.port","9200")
  .getOrCreate()

  println("Enter path of file saved locally")
  val path=scala.io.StdIn.readLine()
  val dataframe=spark.read
  .option("inferSchema", "true").csv(path)

  println("Enter the name you want to save dataframe in Elasticsearch")
   val index=scala.io.StdIn.readLine()  
   dataframe.saveToEs(index-name) 

我如何從 elasticseach 服務器讀取相同內容並在 spark 中以表格格式查看結果。

您還可以手動指定將使用的數據源以及您希望傳遞給數據源的任何額外選項。 Data sources are specified by their fully qualified name (ie, org.apache.spark.sql.parquet), but for built-in sources, you can also use their short names (json, parquet, jdbc, orc, libsvm, csv,文本)。 從任何數據源類型加載的 DataFrame 都可以使用此語法轉換為其他類型。

要加載 JSON 文件,您可以使用:

val peopleDF = spark.read.format("json").load("examples/src/main/resources/people.json")
peopleDF.select("name", "age").write.format("parquet").save("namesAndAges.parquet")

有關火花的更多信息在這里

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM