[英]What is the difference between batch, batch_size, timesteps & features in Tensorflow?
[英]Tensorflow. Difference between [batch_size, 1] & [batch_size]
# Placeholders for inputs
train_inputs = tf.placeholder(tf.int32, shape=[batch_size])
train_labels = tf.placeholder(tf.int32, shape=[batch_size, 1])
這兩個占位符之間可能有什么區別。 它們不是大小為 batch_size 的 int32 列向量嗎?
謝謝。
我通過一些調試找到了答案。
[batch_size] = [ 0, 2, ...]
[batch_size, 1] = [ [0], [2], ...]
雖然仍然不知道為什么使用第二種形式。
train_inputs
是行向量,而train_labels
是列向量。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.