[英]Text summarization for unknown target text size
我在 python3 中使用 Tensorflow keras 庫進行未知文本大小的文本摘要。
我正在使用此鏈接中的代碼解釋進行文本摘要。 但看起來代碼有一個用於要匯總的輸入文本的最大大小的設置值,因為它已經知道要匯總的文本大小。 但如果我不知道呢? 我的意思是,如果我必須對許多我不知道它們總大小的文本進行摘要?
錯誤文本太長,所以我沒有成功找到與我的案例相關的內容。
所以錯誤是:
index[0,0] = 30 不在 [0, 13) [[node model_2/embedding_1/embedding_lookup(定義在 C:\\Users\\f_pc\\Desktop\\class_python.py:314)]] [Op:__inference_predict_function_19765]
錯誤可能源自輸入操作。 連接到節點model_2/embedding_1/embedding_lookup的輸入源操作:model_2/embedding_1/embedding_lookup/19252(定義在D:\\obj\\windows-release\\37amd64_Release\\msi_python\\zip_amd64\\contextlib.py:112)
函數調用棧:predict_function
我也在嘗試
max_text_len=800
max_summary_len=500
但是把這個大小加起來,分析時間會增加,但也有
encoder_inputs = Input(shape=(max_len_text,))
所以你必須設置max_len_text
。
據我所知( Bahdanau et al., 2015 ),Attention 層的輸入長度沒有限制。 剩下的只是收集 LSTM 中間狀態,這也不應該依賴於輸入長度。
您是否嘗試在推理期間設置與模型構建期間不同的max_len_text
? (為每個推理動態設置它,即為您總結的每個輸入文本)
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.