[英]How to read messages from Kafka using Core spark for batch processing
我可以在没有 Spark Streaming 的情况下从 Kafka 读取消息吗? 我的意思是仅将 Spark Core 库用于批处理目的。 如果是的话,你可以展示一些例子如何做到这一点。 我使用的是 HDP 2.4、Kafka 0.9 和 Spark 1.6。
KafkaUtils
Streaming kafka api中有一个叫做KafkaUtils
的类。
在这个类中,您可以使用createRDD
方法,该方法基本上期望偏移,并且仅对非流应用程序有用。
依赖jar:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming-kafka_2.10</artifactId>
<version>1.6.0</version>
</dependency>
另外,检查Kafka Connect,例如您想读取Kafka主题数据并将数据填充到HDFS中,使用Kafka Connect非常简单。
http://docs.confluent.io/3.0.0/connect/ http://www.confluent.io/product/connectors/
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.