繁体   English   中英

通过 Keras 2.4.3 和 Tensorflow 2.2 从 SavedModel 中提取特征

[英]Extracting Features from a SavedModel via Keras 2.4.3 and Tensorflow 2.2

我想从我的 CNN 模型中的最终密集层中提取特征。 但是,我对我所做的所有谷歌研究都非常矛盾。 Tensorflow 有很多不同的方法,我正在努力让一些东西工作。

我已经成功地在 CIFAR10 上训练了一个模型。 我已将模型保存到一个目录并有一个 saved_model.pb 文件。 我已经通过 tensorboard 可视化了模型,但并不完全确定我最后一层的名称。 可视化似乎有点令人困惑。

我该如何继续提取这些特征? 我想将它们用于 t-SNE 分析。

我正在尝试使用 gfile 加载 pb 图,但不确定这是否是正确的方法。谢谢。

import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
from tensorflow.python.platform import gfile


pb_graph_file = '../data/processed/saved_models/saved_model.pb'

f = gfile.GFile(pb_graph_file, 'rb')
graph_def = tf.GraphDef()
f.close()

我的 Keras Sequential 模型如下所示:

    """
    This is the CNN model's architecture
    """
    weight_decay = 1e-4
    model = Sequential()
    model.add(Conv2D(32, (3, 3), activation = 'relu', kernel_initializer = 'he_normal', kernel_regularizer = l2(weight_decay), padding = 'same', input_shape = (32, 32, 3)))
    model.add(BatchNormalization())
    model.add(Conv2D(32, (3, 3), activation = 'relu', kernel_initializer = 'he_normal', kernel_regularizer = l2(weight_decay), padding = 'same'))
    model.add(BatchNormalization())
    model.add(MaxPooling2D((2, 2)))
    model.add(Dropout(0.2))

    model.add(Conv2D(64, (3, 3), activation = 'relu', kernel_initializer = 'he_normal', kernel_regularizer = l2(weight_decay), padding='same'))
    model.add(BatchNormalization())
    model.add(Conv2D(64, (3, 3), activation = 'relu', kernel_initializer = 'he_normal', kernel_regularizer = l2(weight_decay), padding='same'))
    model.add(BatchNormalization())
    model.add(MaxPooling2D((2, 2)))
    model.add(Dropout(0.3))

    model.add(Conv2D(128, (3, 3), activation = 'relu', kernel_initializer = 'he_normal', kernel_regularizer = l2(weight_decay), padding='same'))
    model.add(BatchNormalization())
    model.add(Conv2D(128, (3, 3), activation = 'relu', kernel_initializer = 'he_normal', kernel_regularizer = l2(weight_decay), padding='same'))
    model.add(BatchNormalization())
    model.add(MaxPooling2D((2, 2)))
    model.add(Dropout(0.4))

    # model.add(Conv2D(256, (3, 3), activation = 'relu', kernel_initializer = 'he_uniform', kernel_regularizer = l2(weight_decay), padding='same'))
    # model.add(Conv2D(256, (3, 3), activation = 'relu', kernel_initializer = 'he_uniform', kernel_regularizer = l2(weight_decay), padding='same'))
    # model.add(MaxPooling2D((2, 2)))

    model.add(Flatten())
    # model.add(Dense(128, acti vation='relu', kernel_initializer = 'he_normal', kernel_regularizer = l2(weight_decay)))
    # model.add(BatchNormalization())
    # model.add(Dropout(0.5))
    # output layer
    model.add(Dense(10, activation = 'softmax'))

    # optimize and compile model
    opt = Adam(learning_rate = 1e-3)
    model.compile(optimizer = opt, loss = 'categorical_crossentropy', metrics = ['accuracy'])

    return model

首先使用model.summary()获取所需层的名称。

然后在下面给定的代码中使用该层的名称代替 desired_layer:

from keras.models import Model
extractor = Model(inputs=model.inputs, outputs=model.get_layer(desired_layer).output)
features = extractor.predict(x)

这里x是您要从中提取特征的数据。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM