簡體   English   中英

如何從在Kubernetes上運行的Spark集群(2.1)查詢hdfs?

[英]How to query hdfs from a spark cluster (2.1) which is running on kubernetes?

我試圖從Kubernetes容器中運行的Spark集群訪問HDFS文件。

但是,我繼續收到錯誤消息:AnalysisException:'必須在啟用Hive支持的情況下使用ORC數據源;'

我在這里想念的是什么?

您是否使用enableHiveSupport()創建了SparkSession?

相似的問題: Spark可以從pyspark訪問Hive表,但不能從spark-submit訪問

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM