[英]Flink with Kafka Integration
我正在尝试将 Flink 与 Kafka 集成并从 Kafka 生产者那里读取数据。 我正在尝试按照 flink-docs-release-1.11 文档中的代码运行以下代码
import java.util.Properties;
import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer;
public class Flink_Kafka_Integration {
public static void main(String[] args) throws Exception {
final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
Properties properties = new Properties();
properties.setProperty("bootstrap.servers", "localhost:9092");
properties.setProperty("group.id", "test");
FlinkKafkaConsumer<String> myConsumer = new FlinkKafkaConsumer<>("my-topic", new SimpleStringSchema(), properties);
DataStream<String> stream = env.addSource(myConsumer);
}
}
我收到以下错误,
The method addSource(SourceFunction<OUT>) in the type StreamExecutionEnvironment is not applicable for the arguments (FlinkKafkaConsumer<String>)
The type org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumerBase cannot be resolved. It is indirectly referenced from required .class files
我在我的项目构建路径中包含了一个名为 flink-streaming-java_2.12-1.11.3.jar 的 jar 文件。
任何的意见都将会有帮助。
以下是我正在使用的软件版本:
Flink - 1.11.3
Scala - 2.12
flinkKafkaConsumer-2.12
您需要在项目构建中包含flink-connector-kafka_2.12-1.11.3.jar
。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.