![](/img/trans.png)
[英]TensorFlow: How do I use make a convolutional layer for tabular (1-D) features?
[英]How do I store an intermediate convolutional layer's result in tensorflow for later processing?
下图描述了在应用 CNN 的单个中间过滤器层的最大池化层之前的输出。 我想存储强度为 4 的像素的坐标(在箭头 LHS 上矩阵的右下角),因为它在箭头 LHS 上的矩阵中。 也就是说,右侧矩阵中坐标 (4,4)(基于 1 的索引)处的像素是存储在箭头右侧的矩阵右下角单元格中的像素,右侧。 现在我想要做的是存储这个坐标值 (4,4) 以及其他像素的坐标 {(2,2) 表示强度为 6 的像素,(2, 4) 表示强度为8 和 (3, 1) 对于强度为 3} 的像素作为列表供以后处理。 我如何在 Tensorflow 中做到这一点。
使用大小为 2 x 2 且步幅为 2 的过滤器完成最大池化
您可以使用tf.nn.max_pool_with_argmax
( 链接)。 笔记:
argmax 中的索引被展平,因此位置 [b, y, x, c] 处的最大值变为展平的索引 ((b * height + y) * width + x) * channels + c。
我们需要做一些处理以使其适合您的坐标。 一个例子:
import tensorflow as tf
import numpy as np
def max_pool_with_argmax(net,filter_h,filter_w,stride):
output, mask = tf.nn.max_pool_with_argmax( net,ksize=[1, filter_h, filter_w, 1],
strides=[1, stride, stride, 1],padding='SAME')
# If your ksize looks like [1, stride, stride, 1]
loc_x = mask // net.shape[2]
loc_y = mask % net.shape[2]
loc = tf.concat([loc_x+1,loc_y+1],axis=-1) #count from 0 so add 1
# If your ksize is all changing, use the following
# c = tf.mod(mask,net.shape[3])
# remain = tf.cast(tf.divide(tf.subtract(mask,c),net.shape[3]),tf.int64)
# x = tf.mod(remain,net.shape[2])
# remain = tf.cast(tf.divide(tf.subtract(remain,x),net.shape[2]),tf.int64)
# y = tf.mod(remain,net.shape[1])
# remain = tf.cast(tf.divide(tf.subtract(remain, y), net.shape[1]),tf.int64)
# b = tf.mod(remain, net.shape[0])
# loc = tf.concat([y+1,x+1], axis=-1)
return output,loc
input = tf.Variable(np.random.rand(1, 6, 4, 1), dtype=np.float32)
output, mask = max_pool_with_argmax(input,2,2,2)
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
input_value,output_value,mask_value = sess.run([input,output,mask])
print(input_value[0,:,:,0])
print(output_value[0,:,:,0])
print(mask_value[0,:,:,:])
#print
[[0.20101677 0.09207255 0.32177696 0.34424785]
[0.4116488 0.5965447 0.20575707 0.63288754]
[0.3145412 0.16090539 0.59698933 0.709239 ]
[0.00252096 0.18027237 0.11163216 0.40613824]
[0.4027637 0.1995668 0.7462126 0.68812144]
[0.8993007 0.55828506 0.5263306 0.09376772]]
[[0.5965447 0.63288754]
[0.3145412 0.709239 ]
[0.8993007 0.7462126 ]]
[[[2 2]
[2 4]]
[[3 1]
[3 4]]
[[6 1]
[5 3]]]
您可以看到强度为 0.5965447 的像素为 (2,2),强度为 0.63288754 的像素为 (2, 4) 等等。
假设您有以下最大池化层:
pool_layer= tf.nn.max_pool(conv_output,
ksize=[1, 2, 2, 1],
strides=[1, 2, 2, 1],
padding='VALID')
您可以使用:
max_pos = tf.gradients([pool_layer], [conv_output])[0]
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.