繁体   English   中英

如何通过Spark流和Apache flume将Kafka主题加载到HDFS

[英]How to load Kafka topics to HDFS thru Spark streaming and Apache flume

我正在学习卡夫卡。 使用cloudera env。

我在Kafka中创建了一个主题:

/opt/bitnami/kafka/bin/kafka-topics.sh --create --zookeeper 35.195.113.105:2181 --replication-factor 1 --partitions 1 --topic airports

制片人:

/opt/bitnami/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic airports </home/bitnami/airports.csv

我需要使用Spark Streaming和Flume在HDFS中复制此主题。

有关如何执行此操作的任何想法或建议。

此致苏拉卜

首先阅读此文档http://spark.apache.org/docs/latest/streaming-kafka-0-10-integration.html 您将获得如何在kafka中消费消息。 然后在foreachRDD函数中添加HDFS客户端代码,以将消息写入HDFS。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM