繁体   English   中英

深度学习中的文本生成 Tensorflow

[英]Text Generation in Deep Learning Tensorflow

我目前正在 tensorflow 中进行文本生成。 在训练 model 之后,在预测文本并将数字解码为文本时,为什么我们使用 tf.random.categorical(predictions, num_samples=1)[-1,0].numpy??

1.: tf.random.categorical只返回一个具有最大概率的参数编号(不是参数本身),基于它作为参数的概率分布 - 在这种情况下是predictions 它只返回一个,因为我们设置了num_samples=1

(有关tf.random.categorical究竟是做什么的更好的答案,请看这里。)

2.:[-1,0 [-1,0]是简单的索引切片,我们只取最后一个元素的第一个元素。 我们从最后一个元素中获取它,因为 output 始终只是一个 position 的输入偏移量,因此最后一个元素是新词 - 这就是我们在这种情况下要搜索的内容。

3.:使用numpy()是因为我们现在(通常)不想处理张量。 tf.random.categorical的返回是一个张量。 所以我们使用numpy()转换它。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM