[英]Need solution to schedule Spark jobs
我是Spark的新手。 在我们的项目中
我的团队正在探索以其他方式将Scala-Spark程序安排为工作的可能性。 建议之一是将在Talend上运行的同一作业转换/写入Scala。 我不知道是否有可能。 因此,有人可以让我知道是否可以在Scala上做同样的事情。
您可以使用tSystem或tSSH组件在Talend中提交您的Spark作业。 并从提到的组件中获取响应代码(退出代码)。 如果退出代码= 0(成功),则可以提交下一个火花作业。 我们在项目中做了同样的事情。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.