cost 112 ms
張量值的 function 生成此錯誤:“false_fn”必須是可調用的

[英]The function for tensor value generates this Error: 'false_fn' must be callable

我正在創建一個 function,它采用張量值並通過應用以下公式返回結果,有 3 個條件,所以我使用 @tf.functions。 該代碼生成以下錯誤: “false_fn”必須是可調用的。 我做了很多轉換,int 到 float 和 float 到 int 但不知道是什么問題。 ...

Python 神經網絡。 ValueError:具有多個元素的數組的真值不明確。 使用 a.any() 或 a.all()

[英]Python Neural Networks. ValueError: The truth value of an array with more than one element is ambiguous. Use a.any() or a.all()

我正在嘗試將 ReLU 激活 function 層添加到我的 neural.network。 但是,當我嘗試以下代碼時,出現此錯誤: 我嘗試使用: 我對 neural.networks 很陌生。 謝謝 ...

在 inplace 參數為 True 時將函數 relu 分配給變量

[英]Assigning functional relu to a variable while inplace parameter is True

如果我想在對 x 進行卷積之后進行 ReLU 操作,並且在我的代碼中我會這樣做: 這段代碼是否錯誤,因為我在inplace為True時將 relu 分配給 x 變量? IE。 這是否意味着 ReLU 函數運行了兩次並且為了正常工作我應該將inplace設置為False或不分配給 x? 謝謝 ...

在 Tensorflow 中使用 Prelu

[英]Using Prelu in Tensorflow

我正在構建一個強化學習 model。 我正在嘗試使用 tensorflow 在我的 2D Conv model 中使用 PRelu。 這是演員 Model 的代碼。 代碼: 我在 LeakyRelu 上工作得很好,但是當我使用 Prelu 時,我會拋出與尺寸相關的錯誤。 我不明白錯誤: 現在給任何 ...

ReL 是 function 的哪個類型?

[英]Which type of function is ReL?

我想知道 ReL function 是線性的還是恆等的 function。 如果 function 是線性的(即 y=kx+d),則 function 可以“改變”很多。 另一方面,如果 function 是一個身份 function(意思是 y=x),那么 output 不會改變——至少對於正輸 ...

python 中 ReLU function 的 ValueError

[英]ValueError with ReLU function in python

我這樣聲明 ReLU function: 並且發生了 ValueError 並且其回溯消息是 ValueError:具有多個元素的數組的真值不明確。 使用 a.any() 或 a.all() 但是,如果我用 numpy 更改 ReLU function,它可以工作: 為什么這個函數( relu(x ...

2022-01-26 08:55:07   3   25    python / relu  
當我嘗試加載使用 PReLU 作為激活 function 的訓練有素的 model 時出現“ValueError:未知激活 function:PReLU”?

[英]Getting "ValueError: Unknown activation function: PReLU" when I try to load a trained model that employes PReLU as the activation function?

由於標題是自我描述的,因此當我嘗試加載訓練有素的 CNN model 時,我收到了ValueError: Unknown activation function: PReLU錯誤,它使用PReLU作為卷積層和密集層的激活 function。 這個model怎么用? 有解決方法嗎? ps 我正在使 ...

ReLU 不一致/隨機行為

[英]ReLU inconsistency/randomized behaviour

我寫了一個簡單的 nn(它應該添加兩個數字)並且我嘗試了不同的激活函數,這是我的代碼 這是主要的 我有兩個問題:- 當使用Learning_rate = 0.1的ReLU以外的激活時,它需要超過100,000個時期才能使一些錯誤接近零但仍然沒有達到0但它是一致的並且錯誤總是在下降,所以 ...

XOR 與 ReLU 激活 function

[英]XOR with ReLU activation function

如果我用 sigmoid function 嘗試這個,它工作正常,但是當 ReLU 激活 function 被實現時,程序不會學習任何東西。 NN 由 3 個輸入、隱藏、output 層和 sigmoid 激活函數組成,用於 output function。 手工計算似乎很好,但找不到缺陷。 ...

LeakyReLU 層如何在不設置單元數的情況下工作?

[英]How LeakyReLU layer works without setting the number of units?

在構建 Sequential model 時,我注意到添加relu層和LeakyReLU層之間存在差異。 為什么我們不能添加激活層=“ LeakyReLU ”? (LeakyReLU 不是 keras 可以使用的字符串) 添加relu層時,我們設置了單元數(在我的示例中為 1024) 為什么我們 ...

更改 keras RELU 激活 function 的閾值

[英]Change the threshold value of the keras RELU activation function

我正在嘗試在構建我的神經網絡時更改激活 function Relu的閾值。 因此,初始代碼是下面寫的,其中 relu 閾值的默認值為 0。 但是,Keras 提供了相同的 function 實現,可以參考這里並添加屏幕截圖。 因此,我將代碼更改為以下代碼以傳遞自定義 function 僅得到以下錯 ...

多層的多重激活函數(神經網絡)

[英]Multiple Activation Functions for multiple Layers (Neural Networks)

我的神經網絡有一個二元分類問題。 我已經在我的隱藏層中使用 ReLU 激活 function 和 output 層中的 sigmoid function 得到了很好的結果。 現在我正在努力獲得更好的結果。 我使用 ReLU 激活 function 添加了第二個隱藏層,結果變得更好。 我嘗試對第二個 ...

由於“未知的激活函數:LeakyReLU”而無法加載模型

[英]Unable to load_model due to 'unknown activation_function: LeakyReLU'

我已經構建、安裝並保存了以下 model: 我正在使用 load_model function 進行評估,到目前為止我還沒有遇到任何問題,但我現在收到以下錯誤: 我應該對架構進行任何語法更改,還是這里有更深層次的問題? 任何建議將不勝感激,因為我已經嘗試設置一些自定義對象,如下所述: https:/ ...

SPCY中的NER激活function

[英]NER activation function in SPACY

我已經搜索了文檔,但找不到答案。 SPACY 是否使用 ReLu、Softmax 或兩者作為激活 function? 謝謝 ...

關於用 PyTorch 編程 cnn 的問題

[英]Questions about programming a cnn with PyTorch

我對 cnn 編程很陌生,所以我有點迷茫。 我正在嘗試執行這部分代碼,他們要求我實現一個完全連接的網絡來對數字進行分類。 它應該包含 1 個具有 20 個單元的隱藏層。 我應該在隱藏層上使用 ReLU 激活 function。 點是要填充的部分,我想到了這一行: 但我不知道它是否正確。 有人可以幫我 ...

如果我們主要使用 LSTMs 而不是 RNNs 來解決梯度消失問題,為什么我們不能只使用帶有 RNNs 的 ReLUs/leaky ReLUs 呢?

[英]If we primarily use LSTMs over RNNs to solve the vanishing gradient problem, why can't we just use ReLUs/leaky ReLUs with RNNs instead?

我們都知道,當我們使用帶有 sigmoid 的深度神經網絡時會出現梯度消失問題,如果我們使用 relu,它可以解決這個問題,但它會產生死神經元問題,然后它會通過leaky relu 來解決。 如果 RNN 中存在梯度消失問題,為什么我們會轉向 LSTM。 為什么我們不能只使用 relu 來解決它。 ...

為什么 DNN 不學習?

[英]Why DNN doesnt learn?

你知道為什么 this.network 不想學習嗎? 這個想法是它在較早的層中使用 ReLU 作為激活 function,在最后一層中使用 sigmoid 作為激活 function。 當我只使用 sigmoid 時,.network 學得很好。 為了驗證 .network,我使用了 MNIST。 ...

神經網絡類型錯誤:+= 不支持的操作數類型:“密集”和“str”

[英]Neural Network TypeError: unsupported operand type(s) for +=: 'Dense' and 'str'

我正在嘗試使用神經網絡來預測房屋的價格。 這是數據集頂部的樣子: 我正在使用 ReLU 激活函數。 當我嘗試在我的測試數據上評估我的模型時,我得到了這個TypeError: unsupported operand type(s) for +=: 'Dense' and 'str' 。 我查看了 ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM