繁体   English   中英

如何提高我的简单神经网络的速度?

[英]How can I improve the speed of my simple neural network?

我刚刚开始探索 TensorFlow 并且遇到了性能问题。 作为一个开始的例子,我尝试实现一个 model 来模拟一个逻辑门。 假设有两个输入AB以及一个 output Y 假设Y仅取决于B而不是A 这意味着以下是有效的示例:

[0, 0] -> 0
[1, 0] -> 0
[0, 1] -> 1
[1, 1] -> 1

我为这些数据创建了训练集,并创建了一个 model,它使用了一个DenseFeatures层,该层使用了两个特征AB 该层馈入Dense(128, 'relu')层,该层馈入Dense(16, 'relu')层,最后馈入Dense(1, 'sigmoid')层。

训练这个 NN 效果很好,预测也很完美。 但是,我注意到在我的 MacBook 上,每个预测大约需要 250 毫秒。 这太过分了,因为我的最终目标是使用这样的 NN 每秒测试数百个预测。

所以我将网络剥离到DenseFeatures([A, B]) -> Dense(8, 'relu') -> Dense(1, 'sigmoid') ,但是对这个 NN 的预测仍然需要大约相同的时间。 我期待执行速度取决于 model 的复杂性。 我可以看到这里不是这种情况? 我究竟做错了什么?

另外,我读过 TensorFlow 使用浮点数学来提高准确性,但这会影响性能,如果我们将数据转换为使用 integer 数学,它会加快速度。 但是,我不知道如何实现这一目标。

如果有人能帮助我理解为什么对如此简单的逻辑门和如此简单的 NN 进行预测需要这么长时间,我将不胜感激。 以及如何加快速度。

作为参考,这是我在 python 中的代码:

  import random
  from typing import Any, List

  import numpy as np
  import tensorflow as tf
  from sklearn.model_selection import train_test_split
  from tensorflow import feature_column
  from tensorflow.keras import layers

  class Input:
    def __init__(self, data: List[int]):
      self.data = data

  class Output:
    def __init__(self, value: float):
      self.value = value

  class Item:
    def __init__(self, input: Input, output: Output):
      self.input = input
      self.output = output

  DATA: List[Item] = []
  for i in range(10000):
    x = Input([random.randint(0, 1), random.randint(0, 1)])
    y = Output(x.data[1])
    DATA.append(Item(x, y))

  BATCH_SIZE = 5
  DATA_TRAIN, DATA_TEST = train_test_split(DATA,       shuffle=True, test_size=0.2)
  DATA_TRAIN, DATA_VAL  = train_test_split(DATA_TRAIN, shuffle=True, test_size=0.2/0.8)

  def toDataSet(data: List[Item], shuffle: bool, batch_size: int):
    a = {
      'a': [x.input.data[0] for x in data],
      'b': [x.input.data[1] for x in data],
    }
    b = [x.output.value for x in data]
    return tf.data.Dataset.from_tensor_slices((a, b)).shuffle(buffer_size=len(data)).batch(BATCH_SIZE)

  DS_TRAIN = toDataSet(DATA_TRAIN, True, 5)
  DS_VAL   = toDataSet(DATA_VAL, True, 5)
  DS_TEST  = toDataSet(DATA_TEST, True, 5)

  FEATURES = []
  FEATURES.append(a)
  FEATURES.append(b)
  feature_layer = tf.keras.layers.DenseFeatures(FEATURES)
  model = tf.keras.models.load_model('MODEL.H5')
  model = tf.keras.Sequential([
    feature_layer,
    layers.Dense(8, activation='relu'),
    layers.Dense(1, activation='sigmoid')
  ])
  model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
  model.fit(DS_TRAIN, validation_data=DS_VAL, epochs=10)
  loss, accuracy = model.evaluate(DS_TEST)

  for i in range(1000):
    val = model.predict([np.array([random.randint(0, 1)]), np.array([random.randint(0, 1)])])

由于您只使用整数,请将 model 的输入更改为使用 8 位有符号整数。 您可以通过添加dtype参数来更改输入层中的数据类型。 这将大大提高处理速度,因为您不会浪费计算。

暂无
暂无

声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.

 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM