繁体   English   中英

如果Spark SQL支持HQL,例如“插入覆盖目录”?

[英]If Spark SQL support HQL like 'insert overwrite directory'?

我想问一下Spark SQL是否支持HQL,例如“插入覆盖目录”。 还是有另一种方法(从spark sql jdbc服务器)将结果集直接保存到HDFS?

此问题有一个jira尚未解决,因此该jira链接为https://issues.apache.org/jira/browse/SPARK-4131 但是您可以执行以下操作:

    JavaSchemaRDD employeeSchemaRDD = context.sql("SELECT * FROM employee");

    JavaRDD<String> strRDD=employeeSchemaRDD.map(new Function<Row, String>() {

        public String call(Row row) throws Exception {
            // TODO Auto-generated method stub
            return row.get(1).toString();
        }

    });
strRDD.saveAsTextFile("outputdir");

用要写入输出的HDFS url替换outputdir。 希望这个回答你的问题。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM