繁体   English   中英

如何使用 Java Spark 结构化流从 Kafka 主题正确消费

[英]How to consume correctly from Kafka topic with Java Spark structured streaming

我是 kafka-spark 流的新手,并尝试使用协议缓冲区序列化器/反序列化器实现 spark 文档中的示例。 到目前为止,我遵循了官方教程

https://spark.apache.org/docs/2.2.0/structured-streaming-kafka-integration.html https://developers.google.com/protocol-buffers/docs/javatutorial

现在我坚持解决以下问题。 这个问题可能与这篇文章类似如何使用 Java 中的结构化流从 Kafka 反序列化记录?

我已经成功实现了在 kafka 主题上写入消息的序列化程序。 现在的任务是使用带有自定义解串器的 spark 结构化流来使用它。

public class CustomDeserializer implements Deserializer<Person> {

@Override
public Person deserialize(String topic, byte[] data) {
    Person person = null;
    try {
        person = Person.parseFrom(data);

        return person;
    } catch (Exception e) {
               //ToDo
    }

    return null;
 }


Dataset<Row> dataset = sparkSession.readStream()
        .format("kafka")
        .option("kafka.bootstrap.servers", "localhost:9092")
        .option("subscribe", topic)
        .option("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer")
        .option("value.deserializer", "de.myproject.CustomDeserializer")
        .load()
        .select("value");

    dataset.writeStream()
        .format("console")
        .start()
        .awaitTermination();

但作为输出,我仍然得到二进制文件。

-------------------------------------------
Batch: 0
-------------------------------------------
+--------------------+
|               value|
+--------------------+
|[08 AC BD BB 09 1...|
+--------------------+

-------------------------------------------
Batch: 1
-------------------------------------------
+--------------------+
|               value|
+--------------------+
|[08 82 EF D8 08 1...|
+--------------------+

关于教程,我只需要为 value.deserializer 设置一个人类可读的格式

.option("value.deserializer", "de.myproject.CustomDeserializer")

我错过了什么?

您是否错过了文档的这一部分?

请注意,无法设置以下 Kafka 参数,并且 Kafka 源或接收器将抛出异常:

  • key.deserializer :键总是使用 ByteArrayDeserializer 反序列化为字节数组。 使用 DataFrame 操作显式反序列化键。
  • value.deserializer :值总是使用 ByteArrayDeserializer 反序列化为字节数组。 使用 DataFrame 操作显式反序列化值。

您必须注册一个 UDF 来调用您的反序列化程序

类似于使用 Spark 结构化流读取 protobuf kafka 消息

您需要将字节转换为字符串数据类型。 dataset.selectExpr("CAST(key AS STRING)", "CAST(value AS STRING)")

然后就可以使用函数了。 from_json (dataset.col("value"), StructType) 取回实际的 DF。

快乐编码:)

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM