繁体   English   中英

如何:火花纱簇

[英]how to : spark yarn cluster

我已经建立了一个包含3台机器的hadoop集群,其中1台是主服务器,2台是从服务器

SPARK_HADOOP_VERSION=2.4.0 SPARK_YARN=true sbt/sbt clean assembly

添加了HADOOP_CONF_DIR = / usr / local / hadoop / etc / hadoop spark-env.sh

 Then i ran SPARK_JAR=./assembly/target/scala-2.10/spark-assembly-1.0.0-SNAPSHOT-hadoop2.4.0.jar HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop ./bin/spark-submit --master yarn --deploy-mode cluster --class org.apache.spark.examples.SparkPi --num-executors 3 --driver-memory 4g --executor-memory 2g --executor-cores 1 examples/target/scala-2.10/spark-examples-1.0.0-SNAPSHOT-hadoop2.4.0.jar

我检查了localhost:8088,发现应用程序SparkPi正在运行。

仅仅是这样还是我应该在2台从属计算机中安装spark ..如何启动所有计算机?

是否有任何帮助文档..我觉得我缺少一些东西..

在独立的Spark中,我们开始了master和worker ./bin/spark-class org.apache.spark.deploy.worker.Worker spark:// IP:PORT

在这种情况下,我也想知道如何让多个人运行

我知道我们可以在conf / slave中配置slave,但是任何人都可以分享一个例子

请帮我卡住

假设您使用的是Spark 1.1.0,如文档( http://spark.apache.org/docs/1.1.0/submitting-applications.html#master-urls )中所述,您可以使用master参数使用值yarn-clusteryarn-client 在这种情况下,您不需要使用deploy-mode参数。

您不必在所有YARN节点上都安装Spark。 这就是YARN的目的:在Hadoop集群上分发您的应用程序(在本例中为Spark)。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM