[英]How to apply Spark schema to the query based on Kafka topic name in Spark Structured Streaming?
[英]How to call a method after a spark structured streaming query (Kafka)?
我需要根据从主题收到的值执行一些功能。 我目前正在使用 ForeachWriter 将所有主题转换为列表。 现在,我想将此列表作为参数传递给方法。
这是我到目前为止所拥有的
def doA(mylist: List[String]) = { //something for A }
def doB(mylist: List[String]) = { //something for B }
Ans 这就是我调用流媒体查询的方式
//{"s":"a","v":"2"}
//{"s":"b","v":"3"}
val readTopics = spark.readStream.format("kafka").option("kafka.bootstrap.servers", "localhost:9092").option("subscribe", "myTopic").load()
val schema = new StructType()
.add("s",StringType)
.add("v",StringType)
val parseStringDF = readTopics.selectExpr("CAST(value AS STRING)")
val parseDF = parseStringDF.select(from_json(col("value"), schema).as("data"))
.select("data.*")
parseDF.writeStream
.format("console")
.outputMode("append")
.start()
//fails here
val listOfTopics = parseDF.select("s").map(row => (row.getString(0))).collect.toList
//unable to call the below methods
for (t <- listOfTopics ){
if(t == "a")
doA(listOfTopics)
else if (t == "b")
doB(listOfTopics)
else
println("do nothing")
}
spark.streams.awaitAnyTermination()
问题:
如果您希望能够将数据收集到本地 Spark 驱动程序/执行程序,则需要使用parseDF.write.foreachBatch
,即使用ForEachWriter
目前还不清楚在你的两种方法中你需要 SparkSession 做什么,但由于它们正在处理非 Spark 数据类型,你可能不应该使用 SparkSession 实例,无论如何
或者,您应该.select()
并过滤您的主题列,然后将这些函数应用于两个“topic-a”和“topic-b”数据框,从而并行化工作负载。 否则,您最好只使用来自kafka-clients
或kafka-streams
的常规KafkaConsumer
而不是 Spark
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.