![](/img/trans.png)
[英]Can I process pcollections in apache beam in chunks? Can I make batches of pcollection and process each batch separately?
[英]Split each row of a pcollection into multiple pcollections?
在我进行一些处理和按键分组后,我有一个如下所示的数据集。 我现在需要对每一行数据做一些处理,得到下面的output。 我试过 flatmap 它真的很慢,因为“值”列表的长度可以任意长。 我想我可以将每一行分成单独的 pcollections,并行处理,然后将它们拼合在一起。 如何将每一行拆分为不同的 pcollection? 如果这不可行,还有其他方法可以加快计算速度吗?
输入
key, value
1 [A, B, B, B]
2 [A, B, B, B]
3 [A, B, B, B]
4 [A, B, B, B]
5 [A, B, B, B]
Output:
key, value
1 (A, 0)
1 (B, 1)
1 (B, 2)
1 (B, 3)
2 (A, 0)
2 (B, 1)
2 (B, 2)
2 (B, 3)
...
在使用 Apache Beam model 时,一个常见的误解是并行化方案是由 PCollection 定义的(可以理解,因为这是 Parallel Collection 的缩写)。 实际上,并行化是根据每个 PCollection[1] 中的键定义的。 换句话说,Beam model 并行处理键,但顺序处理单个键中的值。
您遇到的问题通常称为热键。 当太多值与单个键配对时会发生这种情况,从而限制了并行性。
要将数据操作到预期的 output,您必须编辑现有管道以发出值,使得并非所有元素 go 到单个键。 这有点困难,因为在您的示例中,您希望 output 带有元素的索引。 如果是这种情况,那么无论您如何剪切它,您都必须将某处的所有值合并到 memory 中的一个键中以获得正确的索引。
如果您不关心像上面示例中那样获取特定索引,请查看以下代码。 此代码将每个元素分配给每个键中的随机分区。 这有助于将每个键的元素数量分解为可管理的内容。
data = [
(k, c) for k in range(1, 6) for c in ('A', 'B', 'B', 'B')
]
p = beam.Pipeline()
elems = p | beam.Create(data)
num_buckets = 4
class Preprocess(beam.DoFn):
def process(self, el):
key = str(el[0])
partition = random.randint(0, num_buckets)
yield (key, partition), el
class Postprocess(beam.DoFn):
def process(self, el):
(key, partition), values = el
index = 0
for el in values:
yield key, (el[1], partition, index)
index += 1
out = (elems | beam.ParDo(Preprocess())
| beam.GroupByKey()
| beam.ParDo(Postprocess()))
输入
key,value
1 A
1 B
1 B
1 B
2 A
2 B
2 B
2 B
3 A
3 B
...
电位 Output
key,(value,partition,index)
1 ('A', 1, 0)
1 ('B', 1, 1)
1 ('B', 2, 0)
1 ('B', 3, 0)
2 ('A', 3, 0)
2 ('B', 3, 1)
2 ('B', 1, 0)
2 ('B', 1, 1)
3 ('A', 3, 0)
3 ('B', 2, 0)
...
[1] 使用流式传输时,它是按每个键每个窗口定义的
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.