[英]Difference between tf.train.Checkpoint and tf.train.Saver
我发现有多种方法可以在Tensorflow
保存/恢复模型和变量。 这些方式包括:
在tensorflow的文档中,我发现它们之间存在一些差异:
tf.saved_model
是围绕一个瘦包装tf.train.Saver
tf.train.Checkpoint
支持急于执行,但tf.train.Saver
不支持。 tf.train.Checkpoint
不会创建.meta
文件,但仍然可以加载图形结构(这是一个大问题!它如何做到这一点?) tf.train.Checkpoint
如何在没有.meta
文件的情况下加载图形? 或更广泛地说, tf.train.Saver
和tf.train.Checkpoint
什么tf.train.Checkpoint
?
根据Tensorflow 文档 :
Checkpoint.save
和Checkpoint.restore
写入和读取基于对象的检查点,而tf.train.Saver
可以写入和读取基于variable.name的检查点。 基于对象的检查点保存带有命名边的Python对象(层,优化程序,变量等)之间的依存关系图,该图用于在恢复检查点时匹配变量。 它对Python程序中的更改可能更健壮,并有助于在急切执行时支持变量的创建时恢复。 对于新代码,tf.train.Saver
使用tf.train.Checkpoint
不是tf.train.Saver
。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.