繁体   English   中英

读取保存在HBase列中的AVRO结构

[英]Read AVRO structures saved in HBase columns

我是Spark和HBase的新手。 我正在使用HBase表的备份。 这些备份位于S3存储桶中。 我正在使用newAPIHadoopFile通过spark(scala)读取它们,如下所示:

conf.set("io.serializations", "org.apache.hadoop.io.serializer.WritableSerialization,org.apache.hadoop.hbase.mapreduce.ResultSerialization")
val data = sc.newAPIHadoopFile(path,classOf[SequenceFileInputFormat[ImmutableBytesWritable, Result]], classOf[ImmutableBytesWritable], classOf[Result], conf)

有问题的表称为Emps Emps的架构为:

key: empid {COMPRESSION => 'gz' }
  family: data
    dob - date of birth of this employee.
    e_info - avro structure for storing emp info.
    e_dept- avro structure for storing info about dept.

  family: extra - Extra Metadata {NAME => 'extra', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_DELETED_CELLS => 'FALSE', DATA_BLOCK_ENCODING => 'NONE', TTL => 'FOREVER', COMPRESSION => 'SNAPPY', MIN_VERSIONS => '0', BLOCKCACHE => 'true', BLOCKSIZE => '65536', REPLICATION_SCOPE => '0'}
    e_region - emp region
    e_status - some data about his achievements
    .
    .
    some more meta data

该表中的某些列中包含简单的字符串数据,某些列中具有AVRO结构。

我正在尝试直接从S3中的HBase备份文件读取此数据。 我不想在本地计算机上重新创建此HBase表,因为该表非常大。

这就是我试图阅读的内容:

data.keys.map{k=>(new String(k.get()))}.take(1)
res1: Array[String] = Array(111111111100011010102462)

data.values.map{ v =>{ for(cell <- v.rawCells()) yield{
                        val family = CellUtil.cloneFamily(cell);
                        val  column = CellUtil.cloneQualifier(cell);
                        val  value = CellUtil.cloneValue(cell);
                            new String(family) +"->"+ new String(column)+ "->"+ new String(value)
                         }
                      }  
}.take(1)
res2: Array[Array[String]] = Array(Array(info->dob->01/01/1996,  info->e_info->?ж�?�ո� ?�� ???̶�?�ո� ?�� ????, info->e_dept->?ж�??�ո� ?̶�??�ո� �ո� ??, extra->e_region-> CA, extra->e_status->, .....))

不出所料,我可以正确看到简单的字符串数据,但是AVRO数据是垃圾。

我尝试使用GenericDatumReader读取AVRO结构:

data.values.map{ v =>{ for(cell <- v.rawCells()) yield{
                        val family = new String(CellUtil.cloneFamily(cell));
                        val  column = new String(CellUtil.cloneQualifier(cell));
                        val  value = CellUtil.cloneValue(cell);
                        if(column=="e_info"){
                          var schema_obj =  new Schema.Parser
                          //schema_e_info contains the AVRO schema for e_info
                          var schema = schema_obj.parse(schema_e_info)
                          var READER2 = new GenericDatumReader[GenericRecord](schema)
                          var datum= READER2.read(null, DecoderFactory.defaultFactory.createBinaryDecoder(value,null))
                          var result=datum.get("type").toString()
                                family +"->"+column+ "->"+ new String(result) + "\n"
                            }
                        else
                           family +"->"+column+ "->"+ new String(value)+"\n"
                        }
                }        

}

但这给了我以下错误:

org.apache.spark.SparkException: Task not serializable
  at org.apache.spark.util.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:298)
  at org.apache.spark.util.ClosureCleaner$.org$apache$spark$util$ClosureCleaner$$clean(ClosureCleaner.scala:288)
  at org.apache.spark.util.ClosureCleaner$.clean(ClosureCleaner.scala:108)
  at org.apache.spark.SparkContext.clean(SparkContext.scala:2101)
  at org.apache.spark.rdd.RDD$$anonfun$map$1.apply(RDD.scala:370)
  at org.apache.spark.rdd.RDD$$anonfun$map$1.apply(RDD.scala:369)
  at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:151)
  at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:112)
  at org.apache.spark.rdd.RDD.withScope(RDD.scala:362)
  at org.apache.spark.rdd.RDD.map(RDD.scala:369)
  ... 74 elided
Caused by: java.io.NotSerializableException: org.apache.avro.Schema$RecordSchema
Serialization stack:
    - object not serializable (class: org.apache.avro.Schema$RecordSchema, value: .....

所以我想问:

  1. 有什么方法可以使不可序列化的类RecordSchema与map函数一起工作?
  2. 到目前为止,我的方法正确吗? 我很高兴知道处理此类数据的更好方法。
  3. 我读到在Dataframe中处理此操作会容易得多。 我试图将这样形成的Hadoop RDD转换为Dataframe,但是我又在那儿盲目运行。

如异常所示-架构不可序列化。 您可以在mapper函数中对其进行初始化吗? 这样就无需将其从驱动程序运送到执行程序。

或者,您也可以创建一个包含模式的Scala单例对象。 您会在每个执行器上初始化一个scala单例,因此,当您从单例访问任何成员时,不需要对其进行序列化并通过网络发送。 这避免了为数据中的每一行重新创建架构的不必要的开销。

只是为了检查您是否可以正确读取数据-您还可以在执行程序上将其转换为字节数组,在驱动程序上收集它,并在驱动程序代码中进行反序列化(解析AVRO数据)。 但这显然不会扩展,只是为了确保您的数据看起来不错,并避免在编写原型代码以提取数据时出现火花相关的复杂情况。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM