简体   繁体   English

如何使用流分析作业再次处理 Azure 事件中心中的事件?

[英]How to process again events in Azure Event Hubs with Stream Analytics job?

I have set up an event hub which I store some events and an Azure Stream Analytics Job which processes them and outputs into a blob container.我已经设置了一个事件中心,用于存储一些事件和一个 Azure 流分析作业,用于处理它们并将其输出到 blob 容器中。 Given that the message retention in the hub is set to 5 days, how can I process these events again, ie to output them into a database?鉴于集线器中的消息保留时间设置为 5 天,我如何再次处理这些事件,即将它们输出到数据库中?

OK, for a simple scenario you just have to set the job output start time to an earlier time, as in:好的,对于一个简单的场景,您只需将job output start time设置为更早的时间,如下所示:

az stream-analytics job start
--resource-group MyResourceGroup
--name MyJobName
--output-start-mode CustomTime
--output-start-time 2020-12-04T08:30:00Z

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

相关问题 Azure流分析事件中心没有事件 - Azure Stream Analytics Event Hub No Events 如何将数据从Azure SQL流传输到Azure Blob /事件中心? - How to stream data from Azure SQL to Azure Blob/Event Hubs? 创建一个从AZURE读取数据的nodejs Web应用程序。 (流分析或事件中心或日志分析) - Create a nodejs web app that reads data from AZURE. (Stream analytics or Event Hubs or Log analytics) 如何在 Spring 云 Stream 中使用 2 个 Azure 事件中心 - How to consume 2 Azure Event Hubs in Spring Cloud Stream 使用 Stream 分析作业查询从 EventHub 过滤 azure 事件 - Filtering azure events from EventHub with Stream Analytics job query Azure Stream 分析:如果作业查询是一天明智的 TUMBLINGWINDOW,stream 分析作业何时实际处理数据? - Azure Stream Analytics: When does a stream analytics job actually process data if the job query is a day wise TUMBLINGWINDOW? 将事件发送到 Azure 事件中心 -> 不允许操作 - Send events to Azure Event Hubs -> Operation not permitted 使用事件中心将数据流式传输到Azure Databricks - Stream data into Azure Databricks using Event Hubs Azure ioT和Stream Analytics作业 - Azure ioT and Stream Analytics job Azure流分析-无输出事件 - Azure Stream Analytics - no output events
 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM