[英]How to store JavaDStream<String> to Hive table in spark using Java?
我正在从Kafka服务器接收消息到JavaDStream对象中。 现在我想将消息存储到配置单元表中。 我怎样才能做到这一点?
用于从Kafka流接收消息的代码段:
JavaPairReceiverInputDStream<String, String> kafkaStream = KafkaUtils.createStream(jssc, zookeperIp, consumerGroup,
topic);
JavaDStream<String> messageData = kafkaStream.map(new Function<Tuple2<String, String>, String>() {
@Override
public String call(Tuple2<String, String> message) throws Exception {
// TODO Auto-generated method stub
return message._2;
}
});
Hive中表的架构:
create external table sample(value STRING);
我正在使用spark 2.1.0版本。
请查看这些官方编程指南。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.