cost 138 ms
為什么批歸一化層總和不為 1?

[英]Why doesn't a batch-normalized layer sum to 1?

我一直在深入研究批規范在 PyTorch 中的工作原理,並注意到以下代碼: 下面的 output 總和不為 1: 相反,它總和為 0,我猜這是因為批量歸一化使平均值為 0(除非添加了縮放和移位參數)。 批量歸一化不應該在整個批量中為每個通道生成一個分布嗎? ...

model.predict() - TensorFlow Keras 在數據集大小增加時對所有圖像給出相同的 output?

[英]model.predict() - TensorFlow Keras gives same output for all images when the dataset size increases?

我一直在嘗試使用預訓練模型(XceptionNet)來獲取與分類任務的每個輸入圖像對應的特征向量。 但是當數據集大小發生變化時,由於 model.predict() 為同一圖像提供不可靠且變化的 output 矢量,因此我被卡住了。 在下面的代碼中, batch是包含圖像的數據,對於這些圖像中的每 ...

Instance Norm: ValueError: Expected more than 1 spatial element when training, got input size torch.Size([128, 512, 1, 1])

[英]Instance Norm: ValueError: Expected more than 1 spatial element when training, got input size torch.Size([128, 512, 1, 1])

我有一個運行良好的 ResNet-18。 現在,我想使用 InstanceNorm 作為規范化層而不是 BatchNorm,所以我以這種方式更改了所有的 batchnorm 層: 所有num_features都等於 BatchNorm2d 的,我只是將 BatchNorm2d 更改為 Instan ...

RuntimeError:輸入中的預期通道數可被 num_groups 整除,但輸入的形狀為 [64, 16, 32, 32] 且 num_groups=32

[英]RuntimeError: Expected number of channels in input to be divisible by num_groups, but got input of shape [64, 16, 32, 32] and num_groups=32

我的 EfficientNet 在我的數據集上運行良好。 現在,我將所有批次規范層更改為組規范層。 我已經用 vgg16 和 resnet18 等其他網絡完成了這個過程,一切都很好。 在 EfficientNet 我有這個錯誤RuntimeError: Expected number of cha ...

Pytorch:僅禁用 nn.Dropout() 而不使用 model.eval()

[英]Pytorch: Disable only nn.Dropout() without using model.eval()

可以使用 model.eval() 禁用 nn.Dropout()。 但是,通過使用 .eval(),nn.BatchNorm1d() 也會被禁用。 由於訓練集和測試集之間的分布不同,我想只禁用 Dropout 以通過 GAN 生成數據。 有什么方法可以在訓練后只禁用 Dropout? 這是我的 G ...

BatchNorm2d 的 running_mean / running_var 在 PyTorch 中是什么意思?

[英]What do BatchNorm2d's running_mean / running_var mean in PyTorch?

我想知道我可以從nn.BatchNorm2d調用的running_mean和running_var到底是什么。 示例代碼在這里,其中 bn 表示nn.BatchNorm2d 。 在 Pytorch 官方文檔和用戶社區中,我無法弄清楚running_mean和running_var的含義。 ...

通過特征而不是通道對 4D 數據進行批量標准化 (PyTorch)

[英]Batch Normalization in 4D data over features instead of channels (PyTorch)

我正在嘗試通過nn.BatchNorm2d在我的 CNN 中實現批量標准化。 我的數據大小為(N, C, H, W) ,其中N是批量大小, C是通道數, HxW是圖像大小。 現在在 1d 批量歸一化中,輸出針對整個批次的每個特征進行歸一化; 如果x^i_j是批次中i^th樣本的輸出的j^th特征,則 ...

無法從“keras.layers.normalization”導入名稱“BatchNormalization”

[英]cannot import name 'BatchNormalization' from 'keras.layers.normalization'

我正在從這個網站學習 ObjectDetection 我已經安裝了 ImageAI,Tensorflow 和 Keras。 然后當我在 python 中運行它時 我有追溯(最近調用最后):文件“”,第 1 行,在文件“ /home/carl/python-environments/env/lib/ ...

用運行統計數據訓練 BatchNorm 層是個好主意嗎?

[英]Is it a good idea to train BatchNorm layer with running stats?

據我所知, BatchNorm將在train模式下使用批統計數據,但在eval模式下使用運行統計數據( running_mean / running_var )。 在train和eval模式下始終使用運行統計數據怎么樣? 在我看來,我們畢竟是在推理階段使用eval模式。 為什么我們不在訓練階段一開 ...

無法關閉 faster-rcnn (PyTorch) 的批量規范層

[英]Not able to switch off batch norm layers for faster-rcnn (PyTorch)

我正在嘗試關閉 faster-rcnn model 中的批規范層以進行評估模式。 我正在對 atm 進行健全性檢查: 然而,所有批規范層仍處於訓練模式。 當我用例如 Conv2d 替換它時,我得到False的預期行為。 以下是 output 的示例片段: 為什么會這樣? 我該怎么做才能關閉這些圖層? ...

Tensorflow keras 高於 4 維張量的 BatchNormalization(視頻輸入)

[英]Tensorflow keras BatchNormalization for higher than 4-dimension Tensor (video input)

我正在嘗試為視頻分類實施 S3D[ https://arxiv.org/pdf/1712.04851.pdf ],我遇到了 BatchNormalization 問題。 由於我正在處理的實現是視頻分類,因此我需要為我的輸入張量增加一個時間維度。 (即【批次、時間、高度、寬度、通道】) 這是我的錯 ...

層歸一化權重重新縮放和重新居中

[英]Layer normalization Weight re-scaling and re-centering

在關於層規范化的論文( https://arxiv.org/pdf/1607.06450.pdf )中,他們說層歸一化對於整個權重矩陣的縮放是不變的,並且對於權重矩陣中所有傳入權重的轉移是不變的然后他們用以下證明: 我不完全理解它們是如何從第二個平等傳遞到第三個平等的。 請問有什么幫助嗎? ...

沒有批量標准化的批量大小

[英]batch size without batch normalization

我正在以 EDSR 作為基線 model 進行圖像超分辨率任務。 在 EDSR 之后,我沒有在我的 model 中使用任何批處理規范層。 我突然想出了一個關於批量大小的愚蠢問題。 目前,我正在訓練我的 model,批量大小=32(如在 EDSR 中)。 但是由於我沒有使用任何批量標准化技術,所以我看 ...

對 NLP 文本分類問題使用帶有嵌入和線性層的 BatchNorm1d 層會引發 RuntimeError

[英]Using BatchNorm1d layer with Embedding and Linear layers for NLP text-classification problem throws RuntimeError

我正在嘗試創建一個神經網絡並訓練我自己的嵌入。 該網絡具有以下結構(PyTorch):import torch.nn as nn class MultiClassClassifer(nn.Module): #define all the layers used in model def ...

Pytorch running_mean、running_var 和 num_batches_tracked 在訓練期間更新,但我想修復它們

[英]Pytorch running_mean, running_var and num_batches_tracked are updated during training, but I want to fix them

在 pytorch 中,我想使用預訓練的 model 並訓練我的 model 以向 Z20F35E630F5399D8CZ 添加一個增量到 Z20F35E630F53944DDBFA8C3F6 結果 這是我所做的: 使用load_state_dict加載預訓練模型的參數設置所有預訓練模型的參數req ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM