![](/img/trans.png)
[英]If Kafka Consumer fails (Spark Job), how to fetch the last offset committed by Kafka Consumer. (Scala)
[英]How to use Kafka consumer in spark
我正在使用spark 2.1和Kafka 0.10.1。
我想通过每天阅读Kafka中特定主题的全部数据来处理数据。
对于火花流,我知道createDirectStream
仅需要包含主题列表和一些配置信息作为参数。
但是,我意识到createRDD
必须包含所有主题,分区和偏移信息。
我想使批处理像流式处理一样方便。
可能吗?
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.