繁体   English   中英

占位符的尺寸如何用于张量流?

[英]How does dimensions for placeholders work for tensorflow?

所以假设我有x_trainy_train ,它们是数组,该数组的每个元素都是一个数据点(以数组形式)(因此x_train将采用x_train[i][j] )。 所以x_train[0]代表训练集中的第一个数据点(以数组形式),假设我想创建一个简单的回归

所以我编码了这个

input = tf.placeholder(tf.float32, shape=[len(data[0]),None])
target = tf.placeholder(tf.flaot32, shape=[len(data[0]),None])

network = tf.layers.Dense(10, tf.keras.activations.relu)(input)
network = tf.layers.BatchNormalization()(network)

network = tf.layers.Dense(10,tf.keras.activations.relu)(network)
network = tf.layers.BatchNormalization()(network)

network = tf.layers.Dense(10,tf.keras.activations.linear)(network)

cost = tf.reduce_mean((target - network)**2)

optimizer = tf.train.AdamOptimizer().minimize(cost)

with tf.Session() as sess:
     for epoch in range(1000):
           _, val = sess.run([optimizer,cost], feed_dict={input: x_train, target: y_train})
           print(val)

但这是正确的吗? 我不确定占位符的尺寸是否匹配。 当我尝试运行此代码时,收到错误消息

ValueError: The last dimension of the inputs to `Dense` should be defined. Found `None`.

所以我尝试的是交换占位符的尺寸大小的位置,所以改变的占位符是

    input = tf.placeholder(tf.float32, shape=[None,len(data[0])])
    target = tf.placeholder(tf.float32, shape=[None,len(data[0])]) 

但是有了这些,我就会收到错误消息

tensorflow.python.framework.errors_impl.FailedPreconditionError: Attempting to use uninitialized value dense/bias
 [[{{node dense/bias/read}}]]

我能够通过在x_trainy_train上执行np.expand_dims() at axis=0并在优化模型之前使用sess.run(tf.global_variable_initializer())初始化 batch_norm 和网络参数来解决上述问题。

注意:在占位符形状的第一维中存在None是可以的,因为它允许 TensorFlow 在 batch_size 未知时训练模型(即使对于占位符形状的其他维度也是如此)。 该错误是由于输入和占位符尺寸不匹配造成的。 您的输入( x_trainy_train )可能是一维张量,而占位符要么需要二维张量,要么需要将一维向量重塑为二维。

请在下面找到我的相同实现和验证实现的matplotlib图:

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline

data = [[1,2,3,4,5,6,7,8,9,10],
        [11,12,13,14,15,16,17,18,19,20]]
x_train = data[0]
y_train = data[1]
x_train = np.expand_dims(x_train, 0)
y_train = np.expand_dims(y_train, 0)

input = tf.placeholder(tf.float32, shape=[None, len(data[0])])
target = tf.placeholder(tf.float32, shape=[None, len(data[1])])

network = tf.layers.Dense(10, tf.keras.activations.relu)(input)
network = tf.layers.BatchNormalization()(network)

network = tf.layers.Dense(10,tf.keras.activations.relu)(network)
network = tf.layers.BatchNormalization()(network)

network = tf.layers.Dense(10,tf.keras.activations.linear)(network)

cost = tf.reduce_mean((target - network)**2)

optimizer = tf.train.AdamOptimizer().minimize(cost)

costs = []

with tf.Session() as sess:
     sess.run(tf.global_variables_initializer())
     for epoch in range(1000):
        _, val = sess.run([optimizer,cost], feed_dict={input: x_train, target: y_train})
        costs.append(val)
        print(val)


fig, ax = plt.subplots(figsize=(11, 8))
ax.plot(range(1000), costs)
ax.set_title("Costs vs epochs")
ax.set_xlabel("Epoch")
ax.set_ylabel("Avg. val. accuracy")

这是成本与时代的关系图:

成本与时代在此处输入图片说明

此外,要在新数据上测试网络(例如) x_test = [[21,22,23,24,25,26,27,28,29,30]] ,您可以使用以下代码:

 y_pred = sess.run(network,feed_dict={input: x_test})

PS:确保您使用上面创建的相同 Tensorflow Session sess来运行推理(除非您没有保存和加载模型检查点)

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM