繁体   English   中英

使用Spark SQL创建带有联接的Hive表时使用的引擎

[英]engine used when creating Hive table with joins using Spark SQL

我从文档中不确定是否在使用Spark中的HiveContext创建Hive表时会使用Spark引擎还是标准的Hive mapreduce作业来执行任务?

val sc = new SparkContext()
val hc = new HiveContext(sc)

hc.sql("""
    CREATE TABLE db.new_table
    STORED AS PARQUET
    AS SELECT
        field1,
        field2,
        field3
    FROM db.src1 
        JOIN db.src2
        ON (x = y)
"""
)
Spark 1.6

Spark SQL使用HiveContext支持Apache Hive。 它使用Spark SQL execution engine来处理存储在Hive中的数据。

above Spark 2.x

val spark = SparkSession .builder().appName(“ SparkSessionExample”).config(“ spark.sql.warehouse.dir”,WarehouseLocation)。 enableHiveSupport() getOrCreate()

现在,SPARK将使用SPARK API,而不是MR。 即使在spark-submit / program模式下,也不需要像以前一样明确引用Hivecontext。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM