![](/img/trans.png)
[英]UPDATE table in SQL SERVER database with data in HIVE using Spark
[英]engine used when creating Hive table with joins using Spark SQL
我从文档中不确定是否在使用Spark中的HiveContext创建Hive表时会使用Spark引擎还是标准的Hive mapreduce作业来执行任务?
val sc = new SparkContext()
val hc = new HiveContext(sc)
hc.sql("""
CREATE TABLE db.new_table
STORED AS PARQUET
AS SELECT
field1,
field2,
field3
FROM db.src1
JOIN db.src2
ON (x = y)
"""
)
Spark 1.6
Spark SQL使用HiveContext
支持Apache Hive。 它使用Spark SQL execution engine
来处理存储在Hive中的数据。
above Spark 2.x
val spark = SparkSession .builder().appName(“ SparkSessionExample”).config(“ spark.sql.warehouse.dir”,WarehouseLocation)。
enableHiveSupport()
getOrCreate()
现在,SPARK将使用SPARK API,而不是MR。 即使在spark-submit / program模式下,也不需要像以前一样明确引用Hivecontext。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.