cost 216 ms
sklearn:將屬性 out_activation_ 的值設置為“logistic”

[英]sklearn: Set the valute to the attribute out_activation_ to 'logistic'

我需要在 sklearn 的 MLPRegressor 中設置屬性 activation_out = 'logistic'。 假定此屬性可以采用相關激活函數的名稱('relu'、'logistic'、'tanh' 等)。 問題是我找不到您可以控制此屬性並將其設置為首選功能的方式。 拜托,如果有人以 ...

在PyTorch nn.Linear function中輸入和output相同的目的是什么?

[英]What is the purpose of having the same input and output in PyTorch nn.Linear function?

我認為這是一個理解問題,但我將不勝感激任何幫助。 我正在嘗試學習如何使用 PyTorch 進行自動編碼。 在nn.Linear function中,指定了兩個參數, nn.Linear(input_size, hidden_size) 當將張量重塑為其最小有意義的表示時,就像在自動編碼中所做的那樣 ...

張量值的 function 生成此錯誤:“false_fn”必須是可調用的

[英]The function for tensor value generates this Error: 'false_fn' must be callable

我正在創建一個 function,它采用張量值並通過應用以下公式返回結果,有 3 個條件,所以我使用 @tf.functions。 該代碼生成以下錯誤: “false_fn”必須是可調用的。 我做了很多轉換,int 到 float 和 float 到 int 但不知道是什么問題。 ...

為什么 ReLU function 在 CNN 的每一層之后?

[英]Why ReLU function after every layer in CNN?

我正在介紹 Duke 提供的 Coursera 上的 ML,如果您對 ML 感興趣,我推薦它。 本課程的講師解釋說“我們通常在神經網絡的層之間包含非線性。這樣做有很多原因。首先,如果它們之間沒有任何非線性,連續的線性變換(完全連接的層)會折疊成一個單一的線性變換,這意味着 model 並不比單層更 ...

DequantizeAndLinearBackward 的 Output 0 是一個視圖,正在就地修改。 此視圖是在自定義 Function 和自動網格中創建的

[英]Output 0 of DequantizeAndLinearBackward is a view and is being modified inplace. This view was created inside a custom Function and the autogrid

我正在嘗試微調 GPT J,但出現此錯誤。 我認為它與激活 function 有關並且它就位但我不知道如何對其進行編碼以修復它。 是激活里面的參數function需要禁用嗎? 如果有,是哪一個? 提前謝謝你的幫助! ...

在 Tensorflow 中使用 Prelu

[英]Using Prelu in Tensorflow

我正在構建一個強化學習 model。 我正在嘗試使用 tensorflow 在我的 2D Conv model 中使用 PRelu。 這是演員 Model 的代碼。 代碼: 我在 LeakyRelu 上工作得很好,但是當我使用 Prelu 時,我會拋出與尺寸相關的錯誤。 我不明白錯誤: 現在給任何 ...

自定義激活 function 在 Tensorflow 與可訓練參數

[英]Custom activation function in Tensorflow with trainable params

我正在嘗試在 tensorflow 中實現自定義版本的PElu激活 function。 這種激活的習慣是平滑 relu 的膝蓋。 我從這篇論文中得到了方程。 這是代碼: 我使用 Data Science SE 的這篇文章中的示例實現了這段代碼。 錯誤: 我不明白這個錯誤。 我應該如何使用可訓練參數a ...

如何在 PyTorch 中返回一個自定義激活 function 的可訓練參數?

[英]How to return of one trainable parameters of custom activation function in PyTorch?

下面提供了 Custom_activation_function 的偽代碼: 在上面的兩段代碼中,Custom_activation_function 是一個自定義激活 function 的 class,多個線性層和激活函數在一個順序的 Z20F35E630DAF44DBFA4C3F68F5399 ...

ValueError:調用層“p_re_lu_1”時遇到異常(類型 PReLU)

[英]ValueError: Exception encountered when calling layer "p_re_lu_1" (type PReLU)

在遍歷一系列神經元和激活函數時,我一直面臨以下錯誤。 該錯誤僅在 Prelu 的情況下出現,並且沒有其他激活函數會產生相同的影響。 我無法推斷出這種現象背后的任何邏輯推理,也無法在在線論壇上找到任何相關問題。 如果我僅使用 Prelu 作為激活 function 的選擇來編寫此算法,並且不遍歷激活 ...

自定義激活函數依賴於 Keras 中的其他輸出節點

[英]Custom activation function dependant on other output nodes in Keras

我想使用長短期記憶 (LSTM) 網絡預測多維數組,同時對感興趣的表面的形狀施加限制。 我想通過將輸出的某些元素(表面區域)設置為與其他元素(簡單縮放條件)的函數關系來實現這一點。 是否可以在 Keras 中為輸出設置此類自定義激活函數,其參數是其他輸出節點? 如果沒有,是否有任何其他接口允許這 ...

基於輸入的不同激活函數

[英]Different activation function based on input

我正在嘗試構建一個 Keras 神經網絡,其中輸出層的激活函數(有條件地)取決於輸入。 激活函數相當復雜,因此作為一個更簡單的示例,請考慮以下內容: 該網絡由一個輸入層(即x1 , x2 )、一個帶有輸出y的隱藏層和一個輸出層組成。 上面的激活對應於輸出層的激活。 我將如何實現這樣的事情? 感 ...

激活層學習什么?

[英]What activation layers learn?

我試圖弄清楚每個激活層之后的 CNN 架構。 因此,我編寫了一個代碼來可視化我模型中的一些激活層。 我使用 LeakyReLU 作為我的激活層。 這是Conv2d + BatchNorm后的LeakyRelu圖 從圖中可以看出,有相當紫色的邊框,沒有任何顯示。 所以我的問題是它是什么意思。 我的模型 ...

關於感知器激活閾值的問題

[英]Question about Perceptron activation threshold

我有一個用 Javascript 編寫的感知器,它工作正常,代碼如下。 我的問題是關於激活 function 中的閾值。 我見過的其他代碼類似於if (sum > 0) {return 1} else {return 0}. 我的感知器僅適用於if (sum > 1) {return 1 ...

Function 的激活函數

[英]Function of Activation functions

是否可以定義激活 function 的 function? 我試着做: 但是在嘗試調用它時出現錯誤。 這是一個例子: 它輸出“TypeError:f() 采用 0 位置 arguments 但給出了 1”。 即使我給了它一個參數x,它也不起作用。 ...

說不是所有的激活 function 通過激活或停用 ANN 中的神經元來工作是否正確?

[英]Is it correct to say that not all activation function work by activating or deactivating neurons in a ANN?

我理解,從計算的角度來看,即使激活 function 的 output 為零,它仍會將零從神經元輸出到下一層,因此術語激活和停用神經元是松散描述架構和在模擬我們自己的大腦結構的人工神經網絡 (ANN) 中的過程。 但是,我是從語言的角度來問這個的。 換句話說,由於有很多不同的激活函數,有些通過輸出 ...

分段激活 Function

[英]Piecewise Activation Function

我正在嘗試編寫分段激活 function,其 -6 和 0 之間的斜率為 0.1,其他地方為 1。 輸入(X)大小為(B,C,H,W)。 所以我得出結論,最好的方法是簡單的行代碼: 但我面臨這個錯誤: 有沒有解決此錯誤的解決方案? ...


 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM