繁体   English   中英

Apache Spark - 来自Kafka的消息的并行处理 - Java

[英]Apache Spark - Parallel Processing of messages from Kafka - Java

JavaPairReceiverInputDStream<String, byte[]> messages = KafkaUtils.createStream(...);
JavaPairDStream<String, byte[]> filteredMessages = filterValidMessages(messages);

JavaDStream<String> useCase1 = calculateUseCase1(filteredMessages);
JavaDStream<String> useCase2 = calculateUseCase2(filteredMessages);
JavaDStream<String> useCase3 = calculateUseCase3(filteredMessages);
JavaDStream<String> useCase4 = calculateUseCase4(filteredMessages);

...

我从Kafka检索消息,对其进行过滤并对多个用例使用相同的消息。 这里useCase1到4是相互独立的,可以并行计算。 但是,当我查看日志时,我发现计算是按顺序进行的。 我怎样才能使它们并行运行。 任何建议都会有所帮助。

尝试为您的4个用例创建Kafka主题。 然后尝试创建4种不同的Kafka DStream。

我将所有代码移动到for循环中,并按照kafka主题中的分区数进行迭代,我看到了改进。

for(i=0;i<numOfPartitions;i++)
{
JavaPairReceiverInputDStream<String, byte[]> messages =
KafkaUtils.createStream(...);
JavaPairDStream<String, byte[]> filteredMessages =
filterValidMessages(messages);

JavaDStream<String> useCase1 = calculateUseCase1(filteredMessages);
JavaDStream<String> useCase2 = calculateUseCase2(filteredMessages);
JavaDStream<String> useCase3 = calculateUseCase3(filteredMessages);
JavaDStream<String> useCase4 = calculateUseCase4(filteredMessages);
}

参考: http//www.michael-noll.com/blog/2014/10/01/kafka-spark-streaming-integration-example-tutorial/

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM