[英]Improve multiclass text classification model with LSTM and Glove, Keras and Tensorflow
我花了一些時間嘗試提高我的多類文本分類任務的 F1 分數。 我從筆記本電腦評論中提取方面和情緒。 因此有 3 個標簽,B_A / I_A / O 等。我非常感謝任何改進我的網絡的建議,例如附加層或另一個嵌入。 (也許我還應該為我的任務嘗試除多類分類之外的其他方法)現在我的 F1 分數約為 60%,以下代碼:
#vocab_size=4840, embedding is glove6B, max_seq_length=100
model = Sequential()
model.add(Embedding(vocab_size, 300, weights=[embedding_vectors], input_length=max_seq_length,
trainable= False))
model.add(Dropout(0.1))
model.add(Conv1D(3000, 1, activation='relu'))
model.add(Bidirectional(LSTM(units=150, recurrent_dropout=0, return_sequences=True)))
model.add(Dense(32, activation='relu'))
model.add(Dense(n_tags, activation='softmax'))
model.compile(loss="categorical_crossentropy", optimizer="rmsprop", metrics=["categorical_accuracy"])
model.summary()
# fit model on train data
model.fit(x_train, y_train,
batch_size=64,
epochs=10)
我不知道數據,但我確實對 keras 的多文本分類有很多建議:
如果您還沒有嘗試過我的任何建議,我建議您嘗試一下。 我特別會嘗試第四個,因為嵌入層之后的 Dropout 似乎沒有必要。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.