簡體   English   中英

深度學習中的文本生成 Tensorflow

[英]Text Generation in Deep Learning Tensorflow

我目前正在 tensorflow 中進行文本生成。 在訓練 model 之后,在預測文本並將數字解碼為文本時,為什么我們使用 tf.random.categorical(predictions, num_samples=1)[-1,0].numpy??

1.: tf.random.categorical只返回一個具有最大概率的參數編號(不是參數本身),基於它作為參數的概率分布 - 在這種情況下是predictions 它只返回一個,因為我們設置了num_samples=1

(有關tf.random.categorical究竟是做什么的更好的答案,請看這里。)

2.:[-1,0 [-1,0]是簡單的索引切片,我們只取最后一個元素的第一個元素。 我們從最后一個元素中獲取它,因為 output 始終只是一個 position 的輸入偏移量,因此最后一個元素是新詞 - 這就是我們在這種情況下要搜索的內容。

3.:使用numpy()是因為我們現在(通常)不想處理張量。 tf.random.categorical的返回是一個張量。 所以我們使用numpy()轉換它。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM