繁体   English   中英

Lagom服务消耗来自Kafka的输入

[英]Lagom service consuming input from Kafka

我试图弄清楚如何使用Lagom来消费来自通过Kafka进行通信的外部系统的数据。

我已经遇到了Lagom文档的这一部分 ,它描述了Lagom服务如何通过订阅其主题与另一个Lagom服务进行通信。

helloService
  .greetingsTopic()
  .subscribe // <-- you get back a Subscriber instance
  .atLeastOnce(
  Flow.fromFunction(doSomethingWithTheMessage)
)

但是,当您想要订阅包含某个随机外部系统生成的事件的Kafka主题时,适当的配置是什么?

这个功能需要某种适配器吗? 为了澄清,我现在有这个:

object Aggregator {
  val TOPIC_NAME = "my-aggregation"
}

trait Aggregator extends Service {
  def aggregate(correlationId: String): ServiceCall[Data, Done]

  def aggregationTopic(): Topic[DataRecorded]

  override final def descriptor: Descriptor = {
    import Service._

    named("aggregator")
      .withCalls(
        pathCall("/api/aggregate/:correlationId", aggregate _)
      )
      .withTopics(
        topic(Aggregator.TOPIC_NAME, aggregationTopic())
          .addProperty(
            KafkaProperties.partitionKeyStrategy,
            PartitionKeyStrategy[DataRecorded](_.sessionData.correlationId)
          )
      )
      .withAutoAcl(true)
  }
}

我可以通过简单的POST请求调用它。 但是,我希望通过使用来自某些(外部)Kafka主题的Data消息来调用它。

我想知道是否有这种方式以类似于这个模型的方式配置描述符:

override final def descriptor: Descriptor = {
  ...
  kafkaTopic("my-input-topic")
    .subscribe(serviceCall(aggregate _)
    .withAtMostOnceDelivery
}

我已经在Google网上讨论了这个问题 ,但是在OPs的问题中,我并没有看到他实际上在使用EventMessage来做任何事情,除了将它们路由到他的服务所定义some-topic之外。

编辑#1:进度更新

看一下文档,我决定尝试以下方法。 我添加了2个模块, aggregator-kafka-proxy-apiaggregator-kafka-proxy-impl

在新的api模块中,我定义了一个没有方法的新服务,但是一个主题代表了我的Kafka主题:

object DataKafkaPublisher {
  val TOPIC_NAME = "data-in"
}

trait DataKafkaPublisher extends Service {
  def dataInTopic: Topic[DataPublished]

  override final def descriptor: Descriptor = {
    import Service._
    import DataKafkaPublisher._

    named("data-kafka-in")
      .withTopics(
        topic(TOPIC_NAME, dataInTopic)
          .addProperty(
            KafkaProperties.partitionKeyStrategy,
            PartitionKeyStrategy[SessionDataPublished](_.data.correlationId)
          )
      )
      .withAutoAcl(true)
  }
}

在impl模块中,我只是做了标准实现

class DataKafkaPublisherImpl(persistentEntityRegistry: PersistentEntityRegistry) extends DataKafkaPublisher {
  override def dataInTopic: Topic[api.DataPublished] =
    TopicProducer.singleStreamWithOffset {
      fromOffset =>
        persistentEntityRegistry.eventStream(KafkaDataEvent.Tag, fromOffset)
          .map(ev => (convertEvent(ev), ev.offset))
    }

  private def convertEvent(evt: EventStreamElement[KafkaDataEvent]): api.DataPublished = {
    evt.event match {
      case DataPublished(data) => api.DataPublished(data)
    }
  }
}

现在,为了实际使用这些事件,在我的aggregator-impl模块中,我添加了一个“订阅者”服务,它接受这些事件,并在实体上调用适当的命令。

class DataKafkaSubscriber(persistentEntityRegistry: PersistentEntityRegistry, kafkaPublisher: DataKafkaPublisher) {

  kafkaPublisher.dataInTopic.subscribe.atLeastOnce(
    Flow[DataPublished].mapAsync(1) { sd =>
      sessionRef(sd.data.correlationId).ask(RecordData(sd.data))
    }
  )

  private def sessionRef(correlationId: String) =
    persistentEntityRegistry.refFor[Entity](correlationId)
}

这实际上允许我在Kafka主题“data-in”上发布消息,然后将其代理并转换为RecordData命令,然后发布给要使用的实体。

但是,对我来说,这似乎有些苛刻。 我与Lagom internals联系到Kafka。 我无法轻易交换数据来源。 例如,如果我愿意,我将如何使用来自RabbitMQ的外部消息? 如果我想从另一个Kafka消费(不同于Lagom使用的那个)怎么办?

编辑#2:更多文档

我在Lagom文档上发现了一些文章,特别是这个:

从第三方消费主题

您可能希望您的Lagom服务使用在Lagom中未实现的服务上生成的数据。 在这种情况下,如“服务客户端”部分所述,您可以在Lagom项目中创建第三方服务API模块。 该模块将包含一个服务描述符,声明您将使用的主题。 一旦实现了ThirdPartyService接口和相关类,就应该添加第三方服务api作为对fancy-service-impl的依赖。 最后,您可以使用ThirdPartyService中描述的主题,如订阅主题部分中所述。

我不使用lagom所以这可能只是一个想法。 但作为akka-streams是部分lagom (至少我认为) -从这个解决方案得到你所需要的应该很容易。

我使用了akka-stream-kafka ,这非常好(我只做了一个Prototype)

在使用消息时,您可以执行以下操作:

     Consumer
      .committableSource(
          consumerSettings(..), // config of Kafka
          Subscriptions.topics("kafkaWsPathMsgTopic")) // Topic to subscribe
      .mapAsync(10) { msg =>
        business(msg.record) // do something
      }

检查写得很好的文档

我在这里找到的完整示例: PathMsgConsumer

答案由Alan Klikic上Lightbend论坛提供了这里

第1部分:

如果您只在业务服务中使用外部Kafka群集,那么您可以仅使用Lagom Broker API实现此功能。 所以你需要:

  1. 使用仅包含主题定义的服务描述符创建API(此API未实现)
  2. 在您的业务服务中根据您的部署配置kafka_native(正如我在上一篇文章中提到的那样)
  3. 在您的业务服务中,从#1中创建的API注入服务,并使用Lagom Broker API订阅者订阅它

在Lagom Broker API订户中的抵消提交是开箱即用的。

第2部分:

Kafka和AMQP消费者实施需要持久的akka​​流。 所以你需要处理断开连接。 这些可以通过两种方式完成:

  1. 通过将其包裹在演员中来控制peristant akka流。 您初始化您在actor preStart和流管道流上的流完成到将停止它的actor。 如果流完成或失败,则actor将停止。 然后使用重新启动策略将actor包含在actor backoff中,这将在完成或失败的情况下重新启动actor并重新初始化Flow
  2. akka streams延迟重启与退避阶段

Personnaly我使用#1并没有尝试#2。

初始化#1的倒流actor或#2的流可以在您的Lagom组件特征中完成(基本上在您使用Lagom Broker API进行订阅的同一位置)。

确保在配置使用者时设置使用者组以确保避免重复使用。 您可以像Lagom一样使用描述符中的服务名称作为使用者组名称。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM