簡體   English   中英

[1,2] 對張量的 in.mean([1,2]) 意味着什么?

[英]What does [1,2] means in .mean([1,2]) for tensor?

我有一個形狀torch.Size([3, 224, 225])的張量。 當我執行tensor.mean([1,2])時,我得到張量 ([0.6893, 0.5840, 0.4741])。 [1,2] 在這里是什么意思?

沿minmaxmeansum等維度聚合的操作指定聚合的維度。 通常在每個維度(即獲取整個張量的平均值)或單個維度(即torch.mean(dim = 2)torch.mean(2)返回每個維度的 225 個元素的平均值)使用這些操作3 x 224 個向量。

Pytorch 還允許跨一組多個維度進行這些操作,例如您的情況。 這意味着對第 0 個(非聚合維度)的每個索引取 224 x 224 元素的平均值。 同樣,如果您的原始張量形狀是a.shape = torch.Size([3,224,10,225]) , a.mean([1,3]) 將返回形狀為[3,10]的張量。

張量的形狀在 0 維上為 3,在 1 維上為 224,在 2 維上為 225。

我會說tensor.mean([1,2])計算維度 1 和維度 2 的平均值。這就是為什么你得到 3 個值。 由大小為 224x225 的維度 1 和維度 2 跨越的每個平面都減少為單個值/標量。 由於有 3 個平面被大小為 224x225 的維度 1 和維度 2 所跨越,您將得到 3 個值。 每個值代表具有 224x225 值的整個平面的平均值。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM