[英]Execute spark-submit in azure databricks without creating new cluster
所以,这是我的问题。 我有一个 pyspark 作业存储在 dbfs 中,因为由于组织策略我无法访问数据块存储库,并且由于组织策略我无法在再次创建 spark-submit 作业时创建新集群。 他们有什么办法可以执行 pyspark 作业并将参数传递给它吗?
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.