[英]How to store JavaDStream<String> to Hive table in spark using Java?
我正在從Kafka服務器接收消息到JavaDStream對象中。 現在我想將消息存儲到配置單元表中。 我怎樣才能做到這一點?
用於從Kafka流接收消息的代碼段:
JavaPairReceiverInputDStream<String, String> kafkaStream = KafkaUtils.createStream(jssc, zookeperIp, consumerGroup,
topic);
JavaDStream<String> messageData = kafkaStream.map(new Function<Tuple2<String, String>, String>() {
@Override
public String call(Tuple2<String, String> message) throws Exception {
// TODO Auto-generated method stub
return message._2;
}
});
Hive中表的架構:
create external table sample(value STRING);
我正在使用spark 2.1.0版本。
請查看這些官方編程指南。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.