[英]how to manage offset read from kafka with spark structured stream
我有一个 Spark 结构化流作业,需要从 kafka 主题读取数据并进行一些聚合。 作业需要每天重新启动,但是当它重新启动时,如果我设置了startingOffsets="latest"
,我将丢失重新启动时间之间的数据。 如果我设置了startingOffsets="earliest"
那么作业将从主题中读取所有数据,而不是从最后一个流作业离开的位置读取。 任何人都可以帮助我如何配置将偏移量设置在最后一个流作业左侧的位置?
我正在使用Spark 2.4.0和kafka 2.1.1 ,我尝试为写入作业设置检查点位置,但似乎 Spark 不检查 kafka 消息的偏移量,因此它会继续检查最后一个偏移量或第一个偏移量取决于起始偏移量。
这是我的 spark 从 kafka 读取的配置:
val df = spark.readStream
.format("kafka")
.option("kafka.bootstrap.servers", host)
.option("subscribe", topic)
.option("startingOffsets", offset)
.option("enable.auto.commit", "false")
.load()
例如,kafka 主题有 10 条消息,偏移量从 1 到 10,spark 刚刚处理完消息 5,然后重新启动。 如何让 spark 继续阅读消息 5 而不是消息 1 或 11?
似乎通过一些代码,我可以获取我需要的偏移量并将其保存到像 cassandra 这样的可靠存储中。 然后当火花流开始时,我只需要读取保存的偏移量并将其填充到startingOffsets。 这是帮助我获得所需偏移量的代码
import org.apache.spark.sql.streaming._
import org.apache.spark.sql.streaming.StreamingQueryListener._
spark.streams.addListener(new StreamingQueryListener() {
override def onQueryStarted(queryStarted: QueryStartedEvent): Unit = {
println("Query started:" + queryStarted.id)
}
override def onQueryTerminated(queryTerminated: QueryTerminatedEvent): Unit = {
println("Query terminated" + queryTerminated.id)
}
override def onQueryProgress(queryProgress: QueryProgressEvent): Unit = {
println("Query made progress")
println("Starting offset:" + queryProgress.progress.sources(0).startOffset)
println("Ending offset:" + queryProgress.progress.sources(0).endOffset)
//Logic to save these offsets
// the logic to save the offset write in here
}
})
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.