繁体   English   中英

在 pyspark sparksession 中检查 Hive 中是否存在表

[英]Check if a table exists in Hive in pyspark sparksession

我有以下代码。 我想要实现的是检查 Hive 中的数据库中是否已存在表。 如果是,则将新数据附加到。 如果没有,则创建一个新表。

 if "table1" in sqlContext.tableNames("db1"):
    df.write.format("orc").mode("append").insertInto("db1.table1")
 else:
    df.write.format("orc").saveAsTable("db1.table1")

但我收到此错误:

NameError: name 'sqlContext' is not defined

我正在使用 Jupyter Notebook 在 Pyspark 中使用 spark 会话:

spark = SparkSession.builder.config(conf=conf).enableHiveSupport().getOrCreate()

我该如何修复错误?

这取决于您的 Apache Spark 版本。 如果您的 Spark 版本是 1.x,那么您需要执行以下操作:

from pyspark.sql import SQLContext
sqlContext = SQLContext(sc)

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM