簡體   English   中英

Spark無法在紗線群集模式下運行

[英]Spark not able to run in yarn cluster mode

我試圖在紗線集群上執行我的代碼

我正在使用的命令是

$SPARK_HOME/bin/spark-submit \
    --class "MyApp" \
    target/scala-2.10/my-application_2.10-1.0.jar \
    --master yarn-cluster \
    --num-executors 3 \
    --driver-memory 6g \
    --executor-memory 7g \
    <outputPath>

但是,我可以看到該程序僅在localhost上運行。

它能夠從hdfs讀取文件。

我在獨立模式下嘗試了這個,它工作正常。

請說明哪里出錯了。

我正在使用Hadoop2.4和Spark 1.1.0。 我能夠讓它在集群模式下運行。

為了解決這個問題,我們只需從所有從屬節點中刪除所有配置文件。 之前我們在獨立模式下運行,導致所有從站上的配置重復。 完成后,它在群集模式下按預期運行。 雖然性能不符合獨立模式。

謝謝。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM