簡體   English   中英

Spark提交作業在集群模式下失敗,但在Java中可用於本地HDFS中的copyToLocal

[英]Spark submit job fails for cluster mode but works in local for copyToLocal from HDFS in java

我正在運行Java代碼,以在Spark提交中使用Spark集群模式將文件從HDFS復制到本地。 作業在本地運行時運行正常,但在群集模式下失敗。 它拋出一個java.io.exeception:目標/ mypath /是一個目錄。

我不明白為什么它在群集中失敗。 但是我在本地沒有收到任何例外。

這是因為在第一種情況下(本地),您的驅動程序與運行整個Spark作業的計算機位於同一台計算機上。 在第二種情況下(集群),驅動程序被運送到您的一個工作人員並從那里執行該過程。

通常,當您要以集群模式運行Spark作業並且需要預處理本地文件(例如JSON,XML等)時,需要使用以下語句將它們與可執行文件一起--files <myfile> 然后,在驅動程序中,您將可以看到該特定文件。 如果要包括多個文件,請將它們用逗號(,)分隔。

當您要添加一些jar依賴項時,方法是相同的,您需要使用--jars <myJars>

有關此的更多詳細信息,請檢查此線程

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM