我试图四处搜寻,但奇怪的是,我找不到类似的东西。

假设我有一些完全连接的层:

fc_1 = tf.contrib.layers.fully_connected(fc_input, 100)
fc_2 = tf.contrib.layers.fully_connected(fc_1, 10)
fc_3 = tf.contrib.layers.fully_connected(fc_2, 1)

当我用sess.run(...)运行它们时,我得到一个张量。

这个张量是多少? 是重量吗? 梯度? sess.run是否针对我们提供的所有类型的层都返回此值?

#1楼 票数:1 已采纳

完全连接的层是将输入张量转换为输出张量的数学运算。 输出张量包含图层的激活函数返回的值,该函数对图层的输入张量中的加权值之和进行运算。

当您执行sess.run(fc_3) ,TensorFlow将对三层进行转换,并为您提供由第三层产生的输出张量。

  ask by NorwegianClassic translate from so

未解决问题?本站智能推荐:

1回复

sess.run循环内

我有一个根据输入张量计算一系列操作的图。 该输入张量将从网络摄像头派生。 在这种情况下,我可以在while循环中包含sess.run(...) 。 但是,这是最佳选择吗? 在while循环的每次迭代中,图形中的张量(即权重)是否保持在GPU的内存中? 我读到,GPU计算最昂贵的部分是
2回复

sess.run()多个操作与多个sess.run()

在tensorflow中,如果我们想运行多个操作,那么将列表中的ops传递给单个sess.run()与使用多个sess.run()会有什么区别(例如速度或结果)。将一个操作传递给每个操作? 例: 编辑:最初,我还想知道是否存在多个会话会导致不同结果的情况,例如,计算图中的依赖关系导致执行
1回复

sess.run()无法运行?

我是新来的人,正在研究张量流并遇到问题。 以上是在main.py中导入的model_method.py。 main.py中的fittt函数: 在model_method.py中的build() : 在model_method.py中的fit() : 为了检查运行过程,我在mod
1回复

将sess.run转换为pytorch

我正在尝试将代码从 tf 转换为 pytorch。 我被卡住的代码部分是这个 sess.run。 据我所知,pytorch 不需要它,但我找不到复制它的方法。 我附上你的代码。 TF: 样本是一个 int32 和 ebnodb2noisevar() 返回一个 float32。 TF 中的 BER
1回复

sess.run(Tensor())什么都不做

我试图用存储在TFRecords中的数据喂我的神经网络。 类似于tensorflow网页上的内容,使用input()提取数据。 它返回的数据是两个张量。 当我尝试对Tensors进行eval()以便可以使用feed_dict通过模型发送它们时,我的计算机只是静止不动。 该代码未返回错误,
2回复

sess.run()导致训练缓慢

我正在训练CNN,我相信我对sess.run()使用导致我的训练非常缓慢。 本质上,我使用的是mnist数据集... 问题是,CNN的第一层必须以[batch_size, 28, 28, 1]的形式接受图像,这意味着我必须在将每个图像馈送到CNN之前对其进行转换。 我用我的脚本执行以
1回复

sess.run()的张量流值错误

我尝试了一下tensorflow,但似乎我做的小程序做错了什么: 我想用两个20x20随机数组查看tf.matmul(x,y)的结果。 它抛出的错误是:
2回复

当调用sess.run()时,Tensorflow挂起

以下代码将挂起(只有CTRL z才可以使我退出)。 import tensorflow as tfimport cifar10 # from https://github.com/tensorflow/models/tree/master/tutorials/image/cifar10 (bot