简体   繁体   English

使用Java在独立模式下运行Spark

[英]Run Spark in standalone mode with Java

I've a problem: I cannot run a MapReduce Spark Job written in Java in AWS enviorment EMR. 我有一个问题:我无法在AWS环境EMR中运行用Java编写的MapReduce Spark Job。 I've a maser node and 5 slaves. 我有一个maser节点和5个奴隶。

What is the correct way to let Spark run the java class? 让Spark运行Java类的正确方法是什么?

I tried with this guide but it doesn't work to me. 我尝试使用本指南,但对我不起作用。

Thanks!! 谢谢!!

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM