[英]Does Spark support insert overwrite static partitions?
我在當前的Spark Sql手冊中注意到,不支持將其插入動態分區:
蜂巢的主要功能
Spark SQL當前不支持使用動態分區插入表。
但是,是否支持在靜態分區中插入/覆蓋?
從Spark 1.1版本開始,Spark SQL當前不支持使用動態分區插入表
支持靜態,您需要在配置單元表位置寫入數據。
根據發行說明 ,Spark 1.2.0支持動態分區的插入。 請參閱SPARK-3007 。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.