簡體   English   中英

CNN 張量流中的占位符缺失錯誤

[英]Placeholder missing error in Tensor flow for CNN

我正在使用張量流在 MNIST 數據庫上運行卷積神經網絡。 但我收到以下錯誤。

tensorflow.python.framework.errors.InvalidArgumentError:您必須為占位符張量“x”提供一個值為 dtype float [[Node: x = Placeholderdtype=DT_FLOAT, shape=[], _device="/job:localhost/replica:0 /task:0/cpu:0"]]

x = tf.placeholder(tf.float32, [None, 784], name='x') # mnist data image of shape 28*28=784

我以為我使用 feed_dict 正確更新了 x 的值,但它說我沒有更新占位符 x 的值。

另外,我的代碼中是否還有其他邏輯缺陷?

任何幫助將不勝感激。 謝謝。

import tensorflow as tf
import numpy
from tensorflow.examples.tutorials.mnist import input_data

def conv2d(x, W):
  return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')

def max_pool_2x2(x):
  return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],
                        strides=[1, 2, 2, 1], padding='SAME')

def weight_variable(shape):
  initial = tf.truncated_normal(shape, stddev=0.1)
  return tf.Variable(initial)

def bias_variable(shape):
  initial = tf.constant(0.1, shape=shape)
  return tf.Variable(initial)


mnist = input_data.read_data_sets("/tmp/data/", one_hot=True)

# Parameters
learning_rate = 0.01
training_epochs = 10
batch_size = 100
display_step = 1

# tf Graph Input
#x = tf.placeholder(tf.float32, [50, 784], name='x') # mnist data image of shape 28*28=784
#y = tf.placeholder(tf.float32, [50, 10], name='y') # 0-9 digits recognition => 10 classes

# Set model weights
W = tf.Variable(tf.zeros([784, 10]), name="weights")
b = tf.Variable(tf.zeros([10]), name="bias")

W_conv1 = weight_variable([5, 5, 1, 32])
b_conv1 = bias_variable([32])


W_conv2 = weight_variable([5, 5, 32, 64])
b_conv2 = bias_variable([64])


W_fc1 = weight_variable([7 * 7 * 64, 1024])
b_fc1 = bias_variable([1024])

W_fc2 = weight_variable([1024, 10])
b_fc2 = bias_variable([10])

# Initializing the variables
init = tf.initialize_all_variables()

with tf.Session() as sess:
    sess.run(init)


    # Training cycle
    for i in range(1000):
        print i
        batch_xs, batch_ys = mnist.train.next_batch(50)

        x_image = tf.reshape(x, [-1,28,28,1])

        h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
        h_pool1 = max_pool_2x2(h_conv1)

        h_conv2 = tf.nn.relu(conv2d(h_pool1, W_conv2) + b_conv2)
        h_pool2 = max_pool_2x2(h_conv2)

        h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])
        h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)


        y_conv=tf.nn.softmax(tf.matmul(h_fc1, W_fc2) + b_fc2)

        cross_entropy = tf.reduce_mean(-tf.reduce_sum(y * tf.log(y_conv), reduction_indices=[1]))
        sess.run(
          [cross_entropy, y_conv],
          feed_dict={x: batch_xs, y: batch_ys})

        correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(y,1))
        print correct_prediction.eval()
        accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

為什么要嘗試創建占位符變量? 您應該能夠直接使用mnist.train.next_batch(50)生成的輸出,前提是您在模型本身內部移動了正確correct_prediction和准確度的計算。

batch_xs, batch_ys = mnist.train.next_batch(50)
x_image = tf.reshape(batch_xs, [-1,28,28,1])
...
cross_entropy = tf.reduce_mean(-tf.reduce_sum(batch_ys * tf.log(y_conv), reduction_indices=[1]))
correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(batch_ys,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
predictions_correct, acc = sess.run([cross_entropy, y_conv, correct_prediction, accuracy])
print predictions_correct, acc

您收到該錯誤是因為您試圖在correct_prediction上運行eval() 該張量需要批量輸入(x 和 y)才能進行評估。 您可以通過將其更改為以下內容來糾正錯誤:

print correct_prediction.eval(feed_dict={x: batch_xs, y: batch_ys})

但正如 Benoit Steiner 提到的,您可以輕松地將其拉入模型中。

更一般地說,您在這里沒有進行任何優化,但也許您還沒有解決這個問題。 就目前而言,它只會打印出一段時間的錯誤預測。 :)

首先,您的 x 和 y 被注釋掉,如果這在您的實際代碼中存在,則很可能是問題所在。

correct_prediction.eval()等效於tf.session.run(correct_prediction) (或在您的情況下為sess.run() ),因此需要相同的語法*。 所以它需要是正確的correct_prediction.eval(feed_dict={x: batch_xs, y: batch_ys})才能運行,但是請注意這通常是內存密集型的,並且可能導致您的系統掛起。 由於 ram 的使用,將精度函數拉入模型可能是一個好主意。

我沒有看到一個優化函數來利用你的交叉熵,但是我從來沒有嘗試過不使用它,所以如果它有效,不要修復它。 但如果它最終拋出一個錯誤,你可能想嘗試:

optimizer = optimizer = tf.train.AdamOptimizer().minimize(cross_entropy)

並替換' cross_entropy '

sess.run([cross_entropy, y_conv],feed_dict={x: batch_xs, y: batch_ys})

使用“ optimizer

https://pythonprogramming.net/tensorflow-neural-network-session-machine-learning-tutorial/

檢查腳本的准確性評估部分。

暫無
暫無

聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.

 
粵ICP備18138465號  © 2020-2024 STACKOOM.COM