cost 103 ms
在 Flink 中使用正则表达式消费多个主题 - Using regular expression to consume multiple topic in Flink

我知道 flink 可以使用正则表达式作为输入链接描述来使用多个主题。 我有以下主题名称,例如 在这种情况下,当我使用正则表达式将值设置为sclee-[\\d+]时,它给了我异常。 在我的情况下,正则表达式的情况是否正确? 还有,Flink 真的支持吗? 错误如下。 ...

新的flink Kafka consumer(KafkaSource)能否从旧的FlinkKafkaConsumer的Savepoint/checkpoint开始? - Can new flink Kafka consumer (KafkaSource) start from the old FlinkKafkaConsumer's Savepoint/checkpoint?

我有一份工作正在与旧的 flink Kafka 消费者 ( FlinkKafkaConsumer ) 一起运行,现在我想将它迁移到KafkaSource 。 但我不确定这次迁移会产生什么影响。 我希望我的工作从旧的 FlinkKafkaConsumer 最新成功的检查点开始,这可能吗? 如果不可能 ...

在 Flink 中使用 RichMap 比如 Scala MapPartition - Use RichMap in Flink like Scala MapPartition

在 Spark 中,我们有 MapPartition function,它用于对一组条目进行一些初始化,比如一些 db 操作。 现在我想在 Flink 中做同样的事情。 经过一些研究,我发现我可以使用 RichMap 来实现相同的用途,但它有一个缺点,即该操作只能在流式作业开始时的 open 方法 ...

Flink:TaskManager 无法连接到 JobManager - 无法解析 ResourceManager 地址 - Flink: TaskManager cannot connect to the JobManager - Could not resolve ResourceManager address

我正在使用 Apache Flink Kube.netes 操作员在应用程序集群设置上部署独立作业。 我使用 Flink 官方文档设置了以下文件 - 链接 jobmanager-application-non-ha.yaml taskmanager-job-deployment.yaml fli ...

Flink Streaming File Sink 的 output 路径格式可以改吗? - Can I change the output path format of Flink Streaming File Sink?

赏金将在 7 天后到期。 此问题的答案有资格获得+50声望赏金。 Rinze想让更多人关注这个问题。 我正在使用 Pyflink 和 Streaming API 将数据同步到文件系统中。 output 文件的路径如下: output 文件路径格式似乎是{year}-{month}-{day} ...

Flink window 什么时候发出? - When does a Flink window get emitted?

“例如,使用基于事件时间的窗口策略,每 5 分钟创建一个非重叠(或翻滚)windows,并且允许延迟 1 分钟,Flink 将在 12:00 和 12:00 之间的间隔创建一个新的 window :05 当第一个时间戳落入此区间的元素到达时,当水印超过 12:06 时间戳时它将删除它。” 当水印 ...

在 Flink 中是否可以将 state 与非键控 stream 一起使用? - In Flink is it possible to use state with a non keyed stream?

让我们假设我有一个输入 DataStream 并想实现一些需要“内存”的功能,所以我需要 ProcessFunction 让我可以访问 state。是否可以直接对 DataStream 进行操作,或者唯一的方法是通过初始 stream 进行键控并在键控上下文中工作? 我认为一种解决方案是使用硬编码 ...

Flink sql api - 如何读取 kafka 事件,该事件又具有 s3 的位置 - Flink sql api - how to read kafka event which in turn has a location to s3

我正在尝试使用 flink sql 从 kafka 主题读取数据。 我们有一个模式,如果有效负载大小大于 1MB,我们将有效负载上传到 s3,并在 kafka 事件中将一个位置发送到 s3。 我有一个这样的 flink 表 这里的contentJson字段可以是实际的 json,例如 或者它可以是像 ...

用 Apache Flink 解决 Scheduled Processing - Solving for Scheduled Processing with Apache Flink

我们在 12 个时区拥有约 5 亿司机。 我们会定期发送不同的信息,例如他们的收益报告、新促销、政策变更更新等。 我们希望在最适合他们的时间将这些通信传递给他们。 例如 - 当地时间上午 9 点。 我们希望尽早生成这些通信并将它们发布到 Flink 并安排它们在适当的时间交付。 消息将采用以下格式 ...

在 Flink 中是否可以有一个 DataStream<tuple> Tuple 是所有已知 Tulple(如 Tuple2、Tuple3 等)的基数 class 在哪里?</tuple> - In Flink is it possible to have a DataStream<Tuple> where Tuple is the base class of all known Tulples like Tuple2, Tuple3 etc?

我正在创建一个 Flink 应用程序,它从 Kafka 主题中读取字符串,例如“2 5 9”是一个值。 然后用“”分隔符拆分字符串并将其创建 map 到一个元组。 在这种情况下, map function 的结果将是一个 DataStream&lt;Tuple3&lt;Integer,Intege ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM