简体   繁体   English

GCP 数据流发布/订阅到发布/订阅

[英]GCP Dataflow pub/sub to pub/sub

I'm using gcp pub/sub.我正在使用 gcp 发布/订阅。 If there was exception while accepting new message, I put it to dead letter queue.如果在接受新消息时出现异常,我将其放入死信队列。 I want to have an opportunity to reprocess message after reviewing.我希望有机会在审核后重新处理消息。 I tried to use Dataflow, but it just sends messages as soon as it came to dead letter queue.我尝试使用数据流,但它只是在到达死信队列后立即发送消息。 Any advices how can I solve it?有什么建议我该如何解决?

For temporary solution, maybe export data from dead letter topic to BigQuery using dataflow.对于临时解决方案,可以使用数据流将死信主题中的数据导出到 BigQuery。 Once you review the data, use any component to process and re-export data to pubsub from BigQuery.查看数据后,使用任何组件处理数据并将其从 BigQuery 重新导出到 pubsub。 This way you can control when to export data.这样您就可以控制何时导出数据。 I know this is not ideal.我知道这并不理想。 But will help for short term.但会在短期内有所帮助。

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM