[英]How I can load csv data into hive using Spark dataframes?
我试图将数据从csv文件加载到Hive。 我正在使用spark的JAVA API来做到这一点。 我想知道如何使用spark数据框将数据加载到配置单元中。
这是我尝试使用JSON进行的操作:
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.SQLContext;
public class first {
public static void main (String[] args)
{
String inputFileName = "samples/big.txt" ;
String outputDirName = "output" ;
SparkConf conf = new SparkConf().setAppName("org.sparkexample.WordCount").setMaster("local");
JavaSparkContext context = new JavaSparkContext(conf);
@SuppressWarnings("deprecation")
SQLContext sc = new SQLContext(context);
DataFrame input = sc.jsonFile(inputFileName);
input.printSchema();
}
}
但是不知道如何使用csv进行制作。 我对databricks提供的Spark-csv有一些了解。
请让我知道我该怎么做。
在spark 2.xx上内置csv(无需软件包)尝试读取如下内容:
SparkSession spark = SparkSession
.builder()
.appName("org.sparkexample.WordCount")
.master("local[*]") .
.enableHiveSupport()
.getOrCreate();
DataFrame input = spark.read.csv(inputFileName)
您还可以添加选项,例如:
DataFrame input = spark.read.option("header","true").csv(inputFileName)
会将第一行视为标题,并相应地指定列名称
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.