![](/img/trans.png)
[英]Why is the network not learning as effective (Tensorflow - LSTMs for text generation)?
[英]Text Generation in Deep Learning Tensorflow
我目前正在 tensorflow 中进行文本生成。 在训练 model 之后,在预测文本并将数字解码为文本时,为什么我们使用 tf.random.categorical(predictions, num_samples=1)[-1,0].numpy??
1.: tf.random.categorical
只返回一个具有最大概率的参数编号(不是参数本身),基于它作为参数的概率分布 - 在这种情况下是predictions
。 它只返回一个,因为我们设置了num_samples=1
。
(有关tf.random.categorical
究竟是做什么的更好的答案,请看这里。)
2.:[-1,0 [-1,0]
是简单的索引切片,我们只取最后一个元素的第一个元素。 我们从最后一个元素中获取它,因为 output 始终只是一个 position 的输入偏移量,因此最后一个元素是新词 - 这就是我们在这种情况下要搜索的内容。
3.:使用numpy()
是因为我们现在(通常)不想处理张量。 tf.random.categorical
的返回是一个张量。 所以我们使用numpy()
转换它。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.