[英]DAG(directed acyclic graph) dynamic job scheduler
我需要管理ETL任务的大型工作流程,其执行取决于时间,数据可用性或外部事件。 在执行工作流期间,某些作业可能会失败,并且系统应该能够重新启动失败的工作流分支,而无需等待整个工作流完成执行。
python中有没有可以处理这个的框架?
我看到几个核心功能:
像Oozie这样的东西,但更通用的目的和python。
1)你可以试试dagobah ,如github页面所述:Dagobah是一个用Python编写的简单的基于依赖关系的作业调度程序。 Dagobah允许您使用Cron语法安排定期作业。 然后,每个作业按照依赖关系图定义的顺序启动一系列任务(子过程),您可以通过Web界面中的单击并拖动轻松绘制。 与以下三个相比,这是最轻量级的调度程序项目。
2)在ETL任务方面,Spotify开源的luigi更多地关注hadoop作业,如上所述:Luigi是一个Python模块,可以帮助您构建复杂的批处理作业管道。 它处理依赖项解析,工作流管理,可视化等。它还内置了Hadoop支持。
这两个模块都主要用Python编写,并且包含Web界面以便于管理。
据我所知,'luigi'没有为作业任务提供调度程序模块,我认为这是ETL任务所必需的。 但是使用'luigi'更容易在Python中编写map-reduce代码,并且每天在Spotify运行中的数千个任务依赖于它。
3)像Luigi一样,Pinterest开源了一个名为Pinball的工作流管理器。 Pinball的架构遵循一个主工作者(或主客户端,以避免与我们在下面介绍的特殊类型的客户端命名混淆)范式,其中有状态的中央主人充当关于当前系统状态的无状态客户端的真相来源。 它可以顺利整合hadoop / hive / spark工作。
4) Airflow ,另一个由Airbnb开源的dag工作计划项目,非常像Luigi和Pinball。 后端基于Flask,Celery等构建。 根据示例作业代码 ,Airflow既强大又易于使用。
最后但并非最不重要的是,Luigi,Airflow和Pinball可能会被更广泛地使用。 这三者之间有很大的比较: http : //bytepawn.com/luigi-airflow-pinball.html
有很多这些; 每个人似乎都在写自己的。 https://github.com/common-workflow-language/common-workflow-language/wiki/Existing-Workflow-systems有一个很好的列表。 其中包括源自工业界和学术界的系统。
你看过Ruffus吗?
我没有使用它的经验,但它似乎做了你的清单上的一些项目。 它看起来也非常易于破解,因此您可以自己实现其他要求。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.