簡體   English   中英

如何使用 Databricks 的 Apache Spark 從 SQL 表中獲取 stream 數據

[英]How to stream data from SQL Table with Apache Spark with Databricks

我正在嘗試使用以下命令從 sql 表中獲取 stream:

my_sales =  spark.read.jdbc(jdbcUrl, dbo.table)

static = spark.read.format("csv").load(my_sales)
dataSchema = static.schema

我正在嘗試使用以下內容從表中讀取數據:

rawdf = (spark.readStream 
      .format("csv") \
      .option("maxFilesPerTrigger", 1) \
      .schema(dataSchema) \
      .csv(dataPath)
           )

我正在使用以下內容將數據寫入以下位置

saveloc = '/mnt/raw/streaminglocation/'


streamingQuery = (
  rawdf
  .writeStream
  .format("csv")
  .outputMode("append")
  .option("checkpointLocation", f"{saveloc}/_checkpoints")
  .option("mergeSchema", "true")
  .start(saveloc)
)

然而這失敗了。

是否可以從 SQL 表中獲取 stream?

這是不可能的。 JDBC 源不支持 Spark 結構化流。

也不相信前期編碼。

將 CDC 與 Kafka 一起使用,或將物化可更新視圖與 KAFKA 或 Debezium 一起使用。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM