簡體   English   中英

未知目標文本大小的文本摘要

[英]Text summarization for unknown target text size

我在 python3 中使用 Tensorflow keras 庫進行未知文本大小的文本摘要。

我正在使用此鏈接中的代碼解釋進行文本摘要。 但看起來代碼有一個用於要匯總的輸入文本的最大大小的設置值,因為它已經知道要匯總的文本大小。 但如果我不知道呢? 我的意思是,如果我必須對許多我不知道它們總大小的文本進行摘要?

錯誤文本太長,所以我沒有成功找到與我的案例相關的內容。

所以錯誤是:

index[0,0] = 30 不在 [0, 13) [[node model_2/embedding_1/embedding_lookup(定義在 C:\\Users\\f_pc\\Desktop\\class_python.py:314)]] [Op:__inference_predict_function_19765]

錯誤可能源自輸入操作。 連接到節點model_2/embedding_1/embedding_lookup的輸入源操作:model_2/embedding_1/embedding_lookup/19252(定義在D:\\obj\\windows-release\\37amd64_Release\\msi_python\\zip_amd64\\contextlib.py:112)

函數調用棧:predict_function

我也在嘗試

max_text_len=800
max_summary_len=500

但是把這個大小加起來,分析時間會增加,但也有

encoder_inputs = Input(shape=(max_len_text,)) 

所以你必須設置max_len_text

據我所知Bahdanau et al., 2015 ),Attention 層的輸入長度沒有限制。 剩下的只是收集 LSTM 中間狀態,這也不應該依賴於輸入長度。

您是否嘗試在推理期間設置與模型構建期間不同的max_len_text (為每個推理動態設置它,即為您總結的每個輸入文本)

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM