我正在从 Java 中的 kafka 读取数据,以在 Apache Flink 中执行一些处理并接收结果。 我有 kafka 主题topic_a ,其中有一些数据,例如 {name: "abc", age: 20} 和一些数据,例如 {pin: 111, number: 999999, addres ...
我正在从 Java 中的 kafka 读取数据,以在 Apache Flink 中执行一些处理并接收结果。 我有 kafka 主题topic_a ,其中有一些数据,例如 {name: "abc", age: 20} 和一些数据,例如 {pin: 111, number: 999999, addres ...
我知道 flink 可以使用正则表达式作为输入链接描述来使用多个主题。 我有以下主题名称,例如 在这种情况下,当我使用正则表达式将值设置为sclee-[\\d+]时,它给了我异常。 在我的情况下,正则表达式的情况是否正确? 还有,Flink 真的支持吗? 错误如下。 ...
我在服务器上运行 Apache Flink v1.14,它对从 Kafka 读取的数据进行一些预处理。 我需要它将结果写入 OpenSearch,然后我可以从 OpenSearch 获取结果。 但是,在查看 flink v1.14 连接器列表时,我没有看到 OpenSearch。 还有其他方法可以 ...
我有一份工作正在与旧的 flink Kafka 消费者 ( FlinkKafkaConsumer ) 一起运行,现在我想将它迁移到KafkaSource 。 但我不确定这次迁移会产生什么影响。 我希望我的工作从旧的 FlinkKafkaConsumer 最新成功的检查点开始,这可能吗? 如果不可能 ...
这是我第一次使用flink,我从官网上下载了https://dlcdn.apache.org/flink/flink-1.16.0/flink-1.16.0-bin-scala_2.12.tgz解压后,我运行这个命令来启动它。/bin/start-cluster.sh,但是当我想在 http://l ...
在 Spark 中,我们有 MapPartition function,它用于对一组条目进行一些初始化,比如一些 db 操作。 现在我想在 Flink 中做同样的事情。 经过一些研究,我发现我可以使用 RichMap 来实现相同的用途,但它有一个缺点,即该操作只能在流式作业开始时的 open 方法 ...
从官方文档中,它说 Flink 支持minor version upgrade - restoring a snapshot taken with an older minor version of Flink (1.x → 1.y). . Q1。 这是否意味着我可以通过以下方式升级我的工作的 ...
我正在使用 Apache Flink Kube.netes 操作员在应用程序集群设置上部署独立作业。 我使用 Flink 官方文档设置了以下文件 - 链接 jobmanager-application-non-ha.yaml taskmanager-job-deployment.yaml fli ...
问题: Flink 任务管理器报告: apache.kafka.common.errors.TimeoutException: Timeout expired while fetching topic metadata 部署概览: 一个 Java 项目,用于试用 Stateful Function ...
赏金将在 7 天后到期。 此问题的答案有资格获得+50声望赏金。 Rinze想让更多人关注这个问题。 我正在使用 Pyflink 和 Streaming API 将数据同步到文件系统中。 output 文件的路径如下: output 文件路径格式似乎是{year}-{month}-{day} ...
“例如,使用基于事件时间的窗口策略,每 5 分钟创建一个非重叠(或翻滚)windows,并且允许延迟 1 分钟,Flink 将在 12:00 和 12:00 之间的间隔创建一个新的 window :05 当第一个时间戳落入此区间的元素到达时,当水印超过 12:06 时间戳时它将删除它。” 当水印 ...
让我们假设我有一个输入 DataStream 并想实现一些需要“内存”的功能,所以我需要 ProcessFunction 让我可以访问 state。是否可以直接对 DataStream 进行操作,或者唯一的方法是通过初始 stream 进行键控并在键控上下文中工作? 我认为一种解决方案是使用硬编码 ...
我无法理解为什么我的 flink 工作提交给 kafka 消费者需要这么长时间。 我有一个 1s 的检查点,并出现以下警告。 我目前使用的是 1.14 版。 Committing offsets to Kafka takes longer than the checkpoint interval. ...
我有 Apache Flink 作业用于解析 csv 文件,它在 Windows 的 IntelliJ IDEA 中工作正常。但是当我把我的工作(jar)放在 docker-container Apache Flink 中时,我遇到了使用 class FileSource.forRecordStre ...
我无法在运行 Monterey 的 M1 MacBook 上启动 Flink JobManager Docker 容器。 下面是从 Flink 文档中提取的 docker 命令和生成的java.io.IOException 我的 docker 版本是: 为什么容器不允许创建所需的目录? ...
假设我们有一个 EventTimeSlidingWindow 和一个基于某个水印的 EventTime 触发器。 如果水印生成的频率非常低,比如说每五分钟生成一次,而 window 大小是一分钟,那么当水印进行时,会同时触发五个 window 结果吗? 即,在我的 output stream 中, ...
我正在尝试使用 flink sql 从 kafka 主题读取数据。 我们有一个模式,如果有效负载大小大于 1MB,我们将有效负载上传到 s3,并在 kafka 事件中将一个位置发送到 s3。 我有一个这样的 flink 表 这里的contentJson字段可以是实际的 json,例如 或者它可以是像 ...
我们在 12 个时区拥有约 5 亿司机。 我们会定期发送不同的信息,例如他们的收益报告、新促销、政策变更更新等。 我们希望在最适合他们的时间将这些通信传递给他们。 例如 - 当地时间上午 9 点。 我们希望尽早生成这些通信并将它们发布到 Flink 并安排它们在适当的时间交付。 消息将采用以下格式 ...
我正在创建一个 Flink 应用程序,它从 Kafka 主题中读取字符串,例如“2 5 9”是一个值。 然后用“”分隔符拆分字符串并将其创建 map 到一个元组。 在这种情况下, map function 的结果将是一个 DataStream<Tuple3<Integer,Intege ...
我创建了一个 springboot 代码来使用 API,这样我就可以在用户点击端点时获取 flink 结果。 static Map<String, Long> finalList = new HashMap<String, Long>(); 上面是main方法外的class ...