繁体   English   中英

Flink 与 Kafka 集成

[英]Flink with Kafka Integration

我正在尝试将 Flink 与 Kafka 集成并从 Kafka 生产者那里读取数据。 我正在尝试按照 flink-docs-release-1.11 文档中的代码运行以下代码

import java.util.Properties;
import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;

public class Flink_Kafka_Integration {
    public static void main(String[] args) throws Exception {
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    
        Properties properties = new Properties();
        properties.setProperty("bootstrap.servers", "localhost:9092");
        properties.setProperty("group.id", "test");
    
    
        FlinkKafkaConsumer<String> myConsumer = new FlinkKafkaConsumer<>("my-topic", new SimpleStringSchema(), properties);
        DataStream<String> stream = env.addSource(myConsumer);
    
    }
}

我收到以下错误,

The method addSource(SourceFunction<OUT>) in the type StreamExecutionEnvironment is not applicable for the arguments (FlinkKafkaConsumer<String>)
The type org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumerBase cannot be resolved. It is indirectly referenced from required .class files

我在我的项目构建路径中包含了一个名为 flink-streaming-java_2.12-1.11.3.jar 的 jar 文件。

任何的意见都将会有帮助。

以下是我正在使用的软件版本:

Flink - 1.11.3

Scala - 2.12

flinkKafkaConsumer-2.12

您需要在项目构建中包含flink-connector-kafka_2.12-1.11.3.jar

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM