簡體   English   中英

如何使用 Spark 數據集向 kafka 寫入 2 個不同的主題

[英]How to write 2 different topics to kafka using spark dataset

我的要求是使用 spark 數據集向 2 個不同的 kafka 主題寫入相同的消息。 我可以將數據集寫入單個主題,現在我必須將相同的內容寫入不同的主題。

如果你知道如何做一次,你可以做兩次

df.write.format("kafka").option("topic", "first").save()
df.write.format("kafka").option("topic", "second").save()

或者您可以在每個要生成的主題中添加topic列,並且只需要write一個數據框

https://spark.apache.org/docs/latest/structured-streaming-kafka-integration.html#writing-the-output-of-batch-queries-to-kafka

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM