繁体   English   中英

基于另一台发电机的发电机

[英]Generator that is based on another generator

我的任务实际上很简单,但是我不知道如何实现它。 我打算在我的ML算法中使用它,但让我们简化示例。 假设有一个类似如下的生成器:

nums = ((i+1) for i in range(4))

以上,将产生我们1234

假设上述生成器返回单个“样本”。 我想写一个生成器方法来批量处理它们。 假设批量大小为2 因此,如果调用此新方法:

def batch_generator(batch_size):
    do something on nums
    yield batches of size batch_size

然后此批处理生成器的输出将是: 12 ,然后是34 元组/列表无关紧要。 重要的是如何退回这些批次。 yield from Python 3.3中引入的关键字中发现了这种yield from ,但是对于我来说似乎没有用。

显然,如果我们用5 num而不是4 ,并且batch_size2 ,我们将忽略第一个生成器的最后一个产生的值。

我自己的解决方案可能是

nums = (i+1 for i in range(4))

def giveBatch(gen, numOfItems):
    try:
        return [next(gen) for i in range(numOfItems)]
    except StopIteration:
        pass

giveBatch(nums, 2)
# [1, 2]
giveBatch(nums, 2)
# [3, 4]

另一个解决方案是使用@Bharel提到的grouper 我已经比较了运行这两种解决方案所需的时间。 没有什么区别。 我想可以忽略不计。

from timeit import timeit

def wrapper(func, *args, **kwargs):
    def wrapped():
        return func(*args, **kwargs)
    return wrapped

nums = (i+1 for i in range(1000000))

wrappedGiveBatch = wrapper(giveBatch, nums, 2)
timeit(wrappedGiveBatch, number=1000000)
# ~ 0.998439

wrappedGrouper = wrapper(grouper, nums, 2)
timeit(wrappedGrouper, number=1000000)
# ~ 0.734342

itertools下,您有一个代码片段可以执行以下操作:

from itertools import zip_longest

def grouper(iterable, n, fillvalue=None):
    "Collect data into fixed-length chunks or blocks"
    # grouper('ABCDEFG', 3, 'x') --> ABC DEF Gxx"
    args = [iter(iterable)] * n
    return zip_longest(*args, fillvalue=fillvalue)

您不必每次都调用方法,而是拥有一个迭代器,该迭代器可以更高效,更快速地返回批处理,并且可以处理一些极端情况,例如过早耗尽数据而不会丢失数据。

这正是我所需要的:

def giveBatch(numOfItems):
    nums = (i+1 for i in range(7))

    while True:
        yield [next(nums) for i in range(numOfItems)]

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM