cost 72 ms
使用 JIT 对 TF 2 Keras 模型进行基准测试

[英]TF 2 Keras model benchmarking with JIT

我正在尝试对一些 TF2 keras 代码进行基准测试 - 特别是,将 JIT 编译性能与非 JITed 进行比较。 tf.test.Benchmark在没有 JIT 的情况下给出了合理的外观结果——与nvidia-smi输出相比,内存使用量大致一致,时间非常接近model.fit但model.f ...

Tensorflow tfcompile:在第 2 步失败

[英]Tensorflow tfcompile: fail at step 2

我遵循https://www.tensorflow.org/xla/tfcompile ,但在第 2 步失败。 怎么了? 陈 ~/git/tensorflow$ bazel build --config=opt //t1:test_graph_tfmatmul ... INFO:在文件 ...

如何为C API激活Tensorflow的XLA?

[英]How can I activate Tensorflow's XLA for the C API?

我从源代码构建了Tensorflow,我正在使用它的C API。 到目前为止一切正常,我也在使用AVX / AVX2。 我从源代码构建的Tensorflow也是在XLA支持下构建的。 我现在也想激活XLA(加速线性代数),因为我希望它会在推理过程中再次提高性能/速度。 如果我现在开始 ...

如何打开tensorflow xla

[英]How to open tensorflow xla

我在tensorflow / examples / tutorials / mnist下尝试了该示例,并尝试应用xla进行加速。 但是,我看不到XlaLaunch如https://www.tensorflow.org/performance/xla/jit所述。 另外,我尝试通过以下方式 ...

如何使用tensorflow xla aot模式构建CNN模型?

[英]How to use tensorflow xla aot mode to build a CNN model?

我使用xla aot构建了一个CNN模型,它编译时没有错误,但是执行二进制文件时,出现了分段错误。 当我将模型更改为完全连接的网络时,它可以正常工作。 这似乎是一个tensorflow错误,有人使用xla aot构建了CNN模型吗? ...

如何在运行时获取张量流以评估形状?

[英]How to get tensorflow to evaluate shape at runtime?

我想在运行时评估张量的形状。 我正在计算两个集合之间的交集。 相交的数量是张量x的尺寸。 在定义图形时,张量的形状设置为[Dimension(None)] 。 因此,通常的x.get_shape()方法将仅返回None 。 有没有一种方法可以在运行时评估形状None ? 我可以做se ...

为什么TensorFlow XLA处于实验状态

[英]Why is TensorFlow XLA in experimental status

我对使用XLA进行自定义设备(FPGA,...)的培训感兴趣。 但是,我从开发人员的教程中学到了XLA处于实验状态。 https://www.tensorflow.org/performance/xla/ 我不知道XLA处于实验状态的原因。 除了性能改进外,关于XLA还有什么 ...

无法使用 tensorflow AOT 编译为 CPU 后端创建最终二进制文件

[英]Cannot create the final binary using tensorflow AOT compilation for CPU backend

我按照这里的教程进行操作: TensorFlow AOT 编译 根据步骤1和2,我编译了子图并生成了头文件( test_graph_tfmatmul.h )和对象( test_graph_tfmatmul.o )文件; 根据第 3 步,我使用示例代码(名为my_code.cc )来调用子图; 根 ...

如何转储tensorflow XLA LLVM IR?

[英]How to dump tensorflow XLA LLVM IR?

我曾经在Tensorflow 1.2中使用以下命令: export TF_XLA_FLAGS='--dump_ir_before_passes=true --dump_temp_products_to=./tmp' 用于在Tensorflow中转储LLVM IR。 但是,此标志li ...

张量流中的索引比收集慢

[英]indexing in tensorflow slower than gather

我正在尝试索引张量以从一维张量中获取切片或单个元素。 我发现使用numpy索引[:]和slice vs tf.gather方式时存在显着的性能差异(几乎 30-40% )。 我还观察到tf.gather在用于标量(循环未堆叠张量)时具有显着的开销,而不是 tensor 。 这是一个已知问题吗? ...

Tensorboard不会在窗口上填充图形

[英]Tensorboard is not populating graph on windows

我编写了简单的python程序来乘以两个值,并期望填充张量板图。 我正在使用Windows - CPU机器。 然后在执行我的程序后,它在日志目录路径中生成了必需的图形事件文件,名称为events.out.tfevents.1504266616.L7 我使用下面的命令启动tens ...

张量流中两个相同秩张量之间的广播

[英]Broadcasting between two same-rank tensors in tensorflow

我有两个具有形状的张量x和s : 我想通过维度1广播x和s之间的点积,如下所示: 哪里 我有这个实现: 我了解,由于tile ,这在内存中效率不高。 同样, reshape的, transpose的element-wise和reduce_sum的操作可能会损害较 ...

tensorflow XLA不产生点文件

[英]tensorflow XLA not producing the dot file

我试图遵循有关XLA和JIT的教程( https://www.tensorflow.org/performance/xla/jit )。 根据https://www.tensorflow.org/performance/xla/jit#step_3_run_with_xla ,当我运行命令时 ...

虚拟批处理规范的两种实现导致两种不同的结果

[英]Two implementation of virtual batch norm lead to two differents results

介绍性问题: 这两个示例代码是否应该导致培训方面的行为不同(任何损失/任何优化程序)? 我的真实情况: 我正在尝试实现虚拟批处理规范,我有两种实现方式,它们的行为方式与改进的gan仓库所启发的方式不同。 此处显示的两种实现方式均经过简化,以保留它们之间的大部分差异。 ...

Tensorflow-XLA | TF操作员如何降低到XLA进行培训

[英]Tensorflow - XLA | How are TF ops lowered to XLA for training

在培训期间如何将tensorflow操作降低到XLA操作? tensorflow / compiler / tf2xla / kernels下的文件仅根据ComputationBuilder中的ops定义了正向传递/推断。 这个问题与“ Tensorflow-XLA |在运行时将张量 ...


 
粤ICP备18138465号  © 2020-2024 STACKOOM.COM