[英]Reading rows from Hive table and write to file in Scala-Spark
我想从spark-scala程序中的配置单元表之一读取数据行,之后,需要将相同的数据逐行写入文件。 实际上是逐行写入文件。 谁能分享指针? Spark版本1.6,Hive1.2。
您可以像这样从表中读取...
val mydf = hiveContext.sql("select * from hive_table_name")
mydf.write.save.format("com.databricks.spark.csv").option("header", "true").save(hdfs_path_to_save)
如果在Spark 2.0之前的版本中,这是您需要的CSV解析器的帮助https://github.com/databricks/spark-csv
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.