我正在尝试完成将张量从1.5MB大小的 tf.record 文件转换为 NumPy 的简单任务。
这是我到目前为止所做的,不幸的是,代码无限期地挂在data_vol.eval()


    decomp_feature = {
            'dsize_dim0': tf.FixedLenFeature([], tf.int64),
            'dsize_dim1': tf.FixedLenFeature([], tf.int64),
            'dsize_dim2': tf.FixedLenFeature([], tf.int64),
            'lsize_dim0': tf.FixedLenFeature([], tf.int64),
            'lsize_dim1': tf.FixedLenFeature([], tf.int64),
            'lsize_dim2': tf.FixedLenFeature([], tf.int64),
            'data_vol': tf.FixedLenFeature([], tf.string),
            'label_vol': tf.FixedLenFeature([], tf.string)}
    raw_size = [256, 256, 3] # original raw input size
    volume_size = [256, 256, 3] # volume size after processing

    reader =  tf.TFRecordReader()
    file_example = "output/tmp/image_01.tfrecords"
    filename_queue = tf.train.string_input_producer(
        [file_example], num_epochs=1)

    fid, serialized_example = reader.read(filename_queue)
    parser = tf.parse_single_example(serialized_example, features = decomp_feature)
    data_vol = tf.decode_raw(parser['data_vol'], tf.float32)

    data_vol = tf.reshape(data_vol, raw_size)
    data_vol = tf.slice(data_vol, [0,0,0], volume_size)
    with tf.Session() as sess:  
        ### Tried without initializing and finalizing the graph, same problem ###
        sess.run(tf.initialize_all_variables())
        sess.graph.finalize()
        ######################

        sess.run(data_vol).eval()
        a = data_vol.eval() < --- stuck

  ask by DsCpp translate from so

本文未有回复,本站智能推荐:

1回复

tf.data.dataset.shuffle的机制是什么?

假设我在一个 tfrecord 中有 100,000 个示例。 我做了一个缓冲区大小为 100 的 shuffle,在我们消耗所有示例并将另外 100 个示例绘制到 shuffle 之后,它会每 100 个示例进行 shuffle。 或者,当我们使用训练数据时,它也会填充后面的示例并从 shuffl
1回复

读取TF记录文件需要很长时间

试图在这里阅读张量流教程 ; 我用约100张图像构建了一个tf记录文件,现在当我尝试以下操作时,内核挂起了; 为什么会这样呢? tf记录文件不是很大,只有30MB +左右,读取它们应该花很长时间: 它打印: 我的笔记本内核已经挂起10分钟,我看不到会有结局。 有人可以指出我做错了
2回复

使用tensorflowcreate_coco_tf_record脚本时出错:“listindexoutofrange”

我想使用tensorflow提供的create_coco_tf_record-script ,将以下coco json格式的简单标签定义转换为TFRecord: 但是当我使用运行脚本时 我收到错误 可能是什么问题?
1回复

AttributeError:模块“tensorflow._api.v2.io”没有属性“tf_record_iterator”

我有一个名为train00.tfrecord的文件,我想通过 tensorflow 读取它。 所以我写了下面的代码。 但它返回了以下错误。 我该如何解决这个依赖问题?
1回复

将TF记录加载到Keras

我正在尝试将自定义 TFRecord 文件加载到我的 keras 模型中。 我试图按照本教程进行操作: https : //medium.com/@moritzkrger/speeding-up-keras-with-tfrecord-datasets-5464f9836c36 ,但适合我的使用。
1回复

如何将SequenceExample对象的读取从tf.python_io.tf_record_iterator转换为tf.data.TFRecordDataset

所以我有一个TFRecords格式的数据集,并且我试图将使用tf.python_io.tf_record_iterator读取的数据集转换为tf.data.TFRecordDataset。 在不推荐使用tf.python_io.tf_record_iterator之外,执行此操作的主要原因是
1回复

TF1.x中的代码可以读取使用TF2.x编写的tfrecords文件吗?

使用一个版本的 TF 编写的tfrecords文件可以被使用不同版本的 TF 编写的代码读取吗? 特别是可以通过使用 TF1 编写的代码读取使用 TF 2 编写的tfrecords文件吗? 还是序列化格式TF版本特定?
1回复

如何指定tf.Data.iterator的起点(或跳过前X个批次)?

对于一个tensorflow数据集迭代器(tf.data.Iterator),跳过前X个批处理的最佳方法是什么,但是仅在第一次迭代中才有效,而对于指定了repeat()的后续迭代则不适用)? 我尝试了以下操作,但没有成功: 预期/期望: 实际: 在此先感谢您的帮助!