![](/img/trans.png)
[英]The function for tensor value generates this Error: 'false_fn' must be callable
我正在創建一個 function,它采用張量值並通過應用以下公式返回結果,有 3 個條件,所以我使用 @tf.functions。 該代碼生成以下錯誤: “false_fn”必須是可調用的。 我做了很多轉換,int 到 float 和 float 到 int 但不知道是什么問題。 ...
[英]The function for tensor value generates this Error: 'false_fn' must be callable
我正在創建一個 function,它采用張量值並通過應用以下公式返回結果,有 3 個條件,所以我使用 @tf.functions。 該代碼生成以下錯誤: “false_fn”必須是可調用的。 我做了很多轉換,int 到 float 和 float 到 int 但不知道是什么問題。 ...
[英]Python Neural Networks. ValueError: The truth value of an array with more than one element is ambiguous. Use a.any() or a.all()
我正在嘗試將 ReLU 激活 function 層添加到我的 neural.network。 但是,當我嘗試以下代碼時,出現此錯誤: 我嘗試使用: 我對 neural.networks 很陌生。 謝謝 ...
[英]Assigning functional relu to a variable while inplace parameter is True
如果我想在對 x 進行卷積之后進行 ReLU 操作,並且在我的代碼中我會這樣做: 這段代碼是否錯誤,因為我在inplace為True時將 relu 分配給 x 變量? IE。 這是否意味着 ReLU 函數運行了兩次並且為了正常工作我應該將inplace設置為False或不分配給 x? 謝謝 ...
[英]Using Prelu in Tensorflow
我正在構建一個強化學習 model。 我正在嘗試使用 tensorflow 在我的 2D Conv model 中使用 PRelu。 這是演員 Model 的代碼。 代碼: 我在 LeakyRelu 上工作得很好,但是當我使用 Prelu 時,我會拋出與尺寸相關的錯誤。 我不明白錯誤: 現在給任何 ...
[英]pytorch Error: module 'torch.nn' has no attribute 'ReLu'
我在 google colab 工作,所以我假設它的當前版本為 pytorch。我試過這個: 並得到: 我在這里做錯了什么? ...
[英]Which type of function is ReL?
我想知道 ReL function 是線性的還是恆等的 function。 如果 function 是線性的(即 y=kx+d),則 function 可以“改變”很多。 另一方面,如果 function 是一個身份 function(意思是 y=x),那么 output 不會改變——至少對於正輸 ...
[英]ValueError with ReLU function in python
我這樣聲明 ReLU function: 並且發生了 ValueError 並且其回溯消息是 ValueError:具有多個元素的數組的真值不明確。 使用 a.any() 或 a.all() 但是,如果我用 numpy 更改 ReLU function,它可以工作: 為什么這個函數( relu(x ...
[英]Is there any difference between relu as an activation function or a layer?
relu 作為激活函數或層之間有什么區別嗎? 例如 或者 ...
[英]Getting "ValueError: Unknown activation function: PReLU" when I try to load a trained model that employes PReLU as the activation function?
由於標題是自我描述的,因此當我嘗試加載訓練有素的 CNN model 時,我收到了ValueError: Unknown activation function: PReLU錯誤,它使用PReLU作為卷積層和密集層的激活 function。 這個model怎么用? 有解決方法嗎? ps 我正在使 ...
[英]ReLU inconsistency/randomized behaviour
我寫了一個簡單的 nn(它應該添加兩個數字)並且我嘗試了不同的激活函數,這是我的代碼 這是主要的 我有兩個問題:- 當使用Learning_rate = 0.1的ReLU以外的激活時,它需要超過100,000個時期才能使一些錯誤接近零但仍然沒有達到0但它是一致的並且錯誤總是在下降,所以 ...
[英]XOR with ReLU activation function
如果我用 sigmoid function 嘗試這個,它工作正常,但是當 ReLU 激活 function 被實現時,程序不會學習任何東西。 NN 由 3 個輸入、隱藏、output 層和 sigmoid 激活函數組成,用於 output function。 手工計算似乎很好,但找不到缺陷。 ...
[英]How LeakyReLU layer works without setting the number of units?
在構建 Sequential model 時,我注意到添加relu層和LeakyReLU層之間存在差異。 為什么我們不能添加激活層=“ LeakyReLU ”? (LeakyReLU 不是 keras 可以使用的字符串) 添加relu層時,我們設置了單元數(在我的示例中為 1024) 為什么我們 ...
[英]Change the threshold value of the keras RELU activation function
我正在嘗試在構建我的神經網絡時更改激活 function Relu的閾值。 因此,初始代碼是下面寫的,其中 relu 閾值的默認值為 0。 但是,Keras 提供了相同的 function 實現,可以參考這里並添加屏幕截圖。 因此,我將代碼更改為以下代碼以傳遞自定義 function 僅得到以下錯 ...
[英]Multiple Activation Functions for multiple Layers (Neural Networks)
我的神經網絡有一個二元分類問題。 我已經在我的隱藏層中使用 ReLU 激活 function 和 output 層中的 sigmoid function 得到了很好的結果。 現在我正在努力獲得更好的結果。 我使用 ReLU 激活 function 添加了第二個隱藏層,結果變得更好。 我嘗試對第二個 ...
[英]Unable to load_model due to 'unknown activation_function: LeakyReLU'
我已經構建、安裝並保存了以下 model: 我正在使用 load_model function 進行評估,到目前為止我還沒有遇到任何問題,但我現在收到以下錯誤: 我應該對架構進行任何語法更改,還是這里有更深層次的問題? 任何建議將不勝感激,因為我已經嘗試設置一些自定義對象,如下所述: https:/ ...
[英]NER activation function in SPACY
我已經搜索了文檔,但找不到答案。 SPACY 是否使用 ReLu、Softmax 或兩者作為激活 function? 謝謝 ...
[英]Questions about programming a cnn with PyTorch
我對 cnn 編程很陌生,所以我有點迷茫。 我正在嘗試執行這部分代碼,他們要求我實現一個完全連接的網絡來對數字進行分類。 它應該包含 1 個具有 20 個單元的隱藏層。 我應該在隱藏層上使用 ReLU 激活 function。 點是要填充的部分,我想到了這一行: 但我不知道它是否正確。 有人可以幫我 ...
[英]If we primarily use LSTMs over RNNs to solve the vanishing gradient problem, why can't we just use ReLUs/leaky ReLUs with RNNs instead?
我們都知道,當我們使用帶有 sigmoid 的深度神經網絡時會出現梯度消失問題,如果我們使用 relu,它可以解決這個問題,但它會產生死神經元問題,然后它會通過leaky relu 來解決。 如果 RNN 中存在梯度消失問題,為什么我們會轉向 LSTM。 為什么我們不能只使用 relu 來解決它。 ...
[英]Why DNN doesnt learn?
你知道為什么 this.network 不想學習嗎? 這個想法是它在較早的層中使用 ReLU 作為激活 function,在最后一層中使用 sigmoid 作為激活 function。 當我只使用 sigmoid 時,.network 學得很好。 為了驗證 .network,我使用了 MNIST。 ...
[英]Neural Network TypeError: unsupported operand type(s) for +=: 'Dense' and 'str'
我正在嘗試使用神經網絡來預測房屋的價格。 這是數據集頂部的樣子: 我正在使用 ReLU 激活函數。 當我嘗試在我的測試數據上評估我的模型時,我得到了這個TypeError: unsupported operand type(s) for +=: 'Dense' and 'str' 。 我查看了 ...