繁体   English   中英

Spark rdd写信给Hbase

[英]Spark rdd write to Hbase

我可以使用以下代码阅读来自Kafka的消息:

val ssc = new StreamingContext(sc, Seconds(50)) 
val topicmap = Map("test" -> 1)
val lines = KafkaUtils.createStream(ssc,"127.0.0.1:2181", "test-consumer-group",topicmap)

但是,我试图读取来自Kafka的每条消息并放入HBase。 这是我写入HBase但没有成功的代码。

lines.foreachRDD(rdd => {
  rdd.foreach(record => {
    val i = +1
    val hConf = new HBaseConfiguration() 
    val hTable = new HTable(hConf, "test") 
    val thePut = new Put(Bytes.toBytes(i)) 
    thePut.add(Bytes.toBytes("cf"), Bytes.toBytes("a"), Bytes.toBytes(record)) 
  })
})

好吧,您实际上并没有执行Put任务,而只是创建一个Put请求并向其中添加数据。 你缺少的是一个

hTable.put(thePut);

添加其他答案!!

您可以使用foreachPartition执行程序级别建立连接以提高效率, 而不是每行都是昂贵的操作。

lines.foreachRDD(rdd => {

    rdd.foreachPartition(iter => {

      val hConf = new HBaseConfiguration() 
      val hTable = new HTable(hConf, "test") 

      iter.foreach(record => {
        val i = +1
        val thePut = new Put(Bytes.toBytes(i)) 
        thePut.add(Bytes.toBytes("cf"), Bytes.toBytes("a"), Bytes.toBytes(record)) 

        //missing part in your code
        hTable.put(thePut);
      })
    })
})

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM