簡體   English   中英

使用Spark SQL創建帶有聯接的Hive表時使用的引擎

[英]engine used when creating Hive table with joins using Spark SQL

我從文檔中不確定是否在使用Spark中的HiveContext創建Hive表時會使用Spark引擎還是標准的Hive mapreduce作業來執行任務?

val sc = new SparkContext()
val hc = new HiveContext(sc)

hc.sql("""
    CREATE TABLE db.new_table
    STORED AS PARQUET
    AS SELECT
        field1,
        field2,
        field3
    FROM db.src1 
        JOIN db.src2
        ON (x = y)
"""
)
Spark 1.6

Spark SQL使用HiveContext支持Apache Hive。 它使用Spark SQL execution engine來處理存儲在Hive中的數據。

above Spark 2.x

val spark = SparkSession .builder().appName(“ SparkSessionExample”).config(“ spark.sql.warehouse.dir”,WarehouseLocation)。 enableHiveSupport() getOrCreate()

現在,SPARK將使用SPARK API,而不是MR。 即使在spark-submit / program模式下,也不需要像以前一樣明確引用Hivecontext。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM