[英]Can you help me with linear activation of my Simple Classifier Neural Network in pyBrain?
我正在使用一個名為pyBrain的Python庫嘗試一個非常簡單的案例,但無法使其正常工作。 可能有一個非常簡單的原因,所以,我希望有人可以提供幫助!
1)一個簡單的XOR可以正常工作。
2)將數字時鍾上顯示的LED分類為數字輸出值可以正常工作。
例如
[ 1. 1. 1. 0. 1. 1. 1.] => [ 0.]
[ 0. 0. 1. 0. 0. 1. 0.] => [ 1.]
[ 1. 0. 1. 1. 1. 0. 1.] => [ 2.]
[ 1. 0. 1. 1. 0. 1. 1.] => [ 3.]
[ 0. 1. 1. 1. 0. 1. 0.] => [ 4.]
[ 1. 1. 0. 1. 0. 1. 1.] => [ 5.]
[ 1. 1. 0. 1. 1. 1. 1.] => [ 6.]
[ 1. 0. 1. 0. 0. 1. 0.] => [ 7.]
[ 1. 1. 1. 1. 1. 1. 1.] => [ 8.]
[ 1. 1. 1. 1. 0. 1. 1.] => [ 9.]
3)將數值分類到led輸出以驅動數字顯示器不起作用。
例如
[ 0.] => [ 1. 1. 1. 0. 1. 1. 1.]
等等等等(如上所述,但是相反)。
我正在使用具有10個輸入,1個輸出的簡單線性激活器,並且在隱藏層中嘗試了> 12個神經元。
我的困惑是,網絡難道不應該記住隱藏層中有10個神經元的模式嗎?
我敢肯定我很想念一些東西,所以,請隨時啟發我的愚蠢!
在進行回歸(單個輸出節點表示值的范圍)時,線性激活是很好的選擇,但對於分類(二進制輸出表示匹配項),最好使用限制值范圍的激活。 像乙狀結腸或tanh。
我認為, MetaOptimize可能會幫助您而不是SO。
我只參加了ML入門課程。 但是據我所記得,神經網絡可以解決許多問題,但它們就像黑匣子。 如果它們不起作用,則很難確定為什么它們不起作用。 具體來說,對於隱藏層中的節點數沒有特定的規則(某些問題有經驗法則)。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.