繁体   English   中英

基于二维 numpy 数组中的索引列表访问行的更有效方法?

[英]More efficient way to access rows based on a list of indices in 2d numpy array?

所以我有 2d numpay 数组 arr。 这是一个比较大的: arr.shape = (2400, 60000)

我目前正在做的事情如下:

  • 随机(带替换) select arr.shape[0]索引
  • 访问(按行)选择的arr索引
  • 计算列平均值并选择最大值
  • 我重复了k次

它看起来像:

no_rows = arr.shape[0]
indicies = np.array(range(no_rows))
my_vals = []
for k in range(no_samples):
    random_idxs = np.random.choice(indicies, size=no_rows, replace=True)
    my_vals.append(
        arr[random_idxs].mean(axis=0).max()
    )

我的问题是速度很慢。 以我的arr大小,1 个循环大约需要 3 秒。 因为我想要一个大于 1k 的样本 - 我目前的解决方案非常糟糕(1k*~3s -> ~1h)。 我已经对其进行了分析,瓶颈是基于索引访问行。 "mean""max"工作fast. np.random.choice fast. np.random.choice也可以。

你觉得有什么需要改进的地方吗? 一种更有效的访问索引的方法,或者更好的更快的方法来解决这个问题?

到目前为止我尝试了什么:

  • numpy.take(较慢)
  • numpy.ravel:

某事类似于:

random_idxs = np.random.choice(sample_idxs, size=sample_size, replace=True) 
test = random_idxs.ravel()[arr.ravel()].reshape(arr.shape)
  • 与当前方法类似,但没有循环。 我创建了 3d arr 并在一个 go 中跨其他维度访问了行

由于高级索引会生成一个副本,因此程序将在arr[random_idxs]中分配巨大的 memory 。

因此,提高效率的最简单方法之一就是批量处理。

BATCH = 512
max(arr[random_idxs,i:i+BATCH].mean(axis=0).max() for i in range(0,arr.shape[1],BATCH))

这不是问题的一般解决方案,但应该使您的特定问题更快。 基本上, arr.mean(axis=0).max()不会改变,那么为什么不从该数组中抽取随机样本呢?

就像是:

mean_max = arr.mean(axis=0).max()
my_vals = np.array([np.random.choice(mean_max, size=len(mean_max), replace=True) for i in range(no_samples)])

你甚至可以这样做: my_vals = np.random.choice(mean_max, size=(no_samples, len(mean_max)), replace=True) ,但我不确定如果有的话,那会如何改变你的统计数据。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM