繁体   English   中英

无法从Spark-shell在Hive中创建新表

[英]Not able to create new table in hive from Spark-shell

我在Redhat中使用单节点设置,并安装了Hadoop Hive Pig和Spark。 我在Derby和所有内容中配置了配置单元元数据。 我为Hive表创建了新文件夹,并赋予了全部特权(chmod 777)。 然后,我从Hive CLI创建了一个表,并且能够在Spark-shell中选择这些数据并将这些值打印到控制台。 但是从Spark-shell / Spark-Sql我无法创建新表。它会引发错误

FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(message:file:/2016/hive/test2 is not a directory or unable to create one)

我检查了权限和用户(使用同一用户安装和Hive和Hadoop Spark等)。 要完全整合Spark和Hive是否需要做任何事情

谢谢

检查hdfs中的权限是否正确(不仅仅是文件系统)

hadoop fs -chmod -R 755 /user

如果错误消息之后仍然存在,请更新问题。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM