![](/img/trans.png)
[英]Creating an instance of java hbase client on each Apache Spark worker node
[英]It is possible to start an embedded instance of apache Spark node?
我想啟動一個嵌入到我的 java 應用程序中的獨立 Apache Spark 集群的實例。 我試圖在他們的網站上找到一些文檔,但還沒有看。
這可能嗎?
你可以在本地模式下創建 SparkContext,你只需要提供“local”作為 SparkConf 的 spark master url
val sparkConf = new SparkConf().
setMaster("local[2]").
setAppName("MySparkApp")
val sc = new SparkContext(sparkConf)
是的——您可以通過“本地”主節點以嵌入式方式使用 Spark。
SparkConf sparkConf = new SparkConf();//Create new spark config
sparkConf.setMaster("local[8]"); // local, using 8 cores (you can vary the number)
sparkConf.setAppName("MyApp");
SparkContext sc = new SparkContext(sparkConf);
這將在您的 JVM 中運行 Spark。
其他人回答了這個問題,但對於 2020 年的 Apache Spark 3.0 版:
Java示例:
SparkSession spark = SparkSession.builder().appName("Your app name").master("local[*]").getOrCreate();
master("local[*]") 表示在獨立模式下運行所有可用的 CPU 內核。
Maven 依賴項:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.12</artifactId>
<version>3.0.1</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.12</artifactId>
<version>3.0.1</version>
</dependency>
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.