[英]Support for Cloud Bigtable as Sink in Cloud Dataflow
是否有计划使Cloud Dataflow能够将数据写入Cloud Bigtable? 可能吗?
添加自定义Sink
以处理IO可能是干净的选择。
解决方法是,我尝试在简单的DoFn
连接到Bigtable(相同的项目)。 在startBundle
步骤中打开连接和表,并在finishBundle
关闭它们。
此外,我在类路径中添加了bigtable-hbase jar (0.1.5)
,并在资源文件夹中添加了hbase-site.xml
的修改版本。
在云中运行时,出现NPN/ALPN extensions not installed
异常。
在本地运行时,出现异常,指出ComputeEngineCredentials cannot find the metadata server.
尽管GOOGLE_APPLICATION_CREDENTIALS
设置为生成的json密钥文件。
任何帮助将不胜感激。
现在,我们有了一个Cloud Bigtable / Dataflow连接器。 您可以在以下网址查看更多信息: https : //cloud.google.com/bigtable/docs/dataflow-hbase
Cloud BigTable需要NPN / ALPN网络罐。 当前未在Dataflow工作器上安装此文件。 因此,无法直接从ParDo访问Cloud BigTable。
一种可能的解决方法是使用HBase REST API设置REST服务器以访问Dataflow之外VM上的Cloud Bigtable。 这些说明可能会有所帮助。
然后,您可以向此REST服务器发出REST请求。 如果您发送大量请求(即处理大量数据并需要设置REST服务器的多个实例并在它们之间进行负载平衡),则这可能会有些复杂。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.