frozen_inference_graph.pb 和 saved_model.pb 有什么区别?

What is difference frozen_inference_graph.pb and saved_model.pb?

我有一个经过训练的模型 (Faster R-CNN),我使用 export_inference_graph.py 将其导出用于推理。我试图了解创建的 frozen_inference_graph.pbsaved_model.pb 以及 model.ckpt* 文件之间的区别。我也看过 .pbtxt 表示。

我试着通读了这篇文章,但找不到真正的答案:https://www.tensorflow.org/extend/tool_developers/

每个文件都包含什么? 哪些可以转换为其他哪些? 每个人的理想目的是什么?

frozen_inference_graph.pb,是一个无法再训练的冻结图,它定义了graphdef,实际上是一个序列化图,可以用这段代码加载:

def load_graph(frozen_graph_filename):
    with tf.gfile.GFile(frozen_graph_filename, "rb") as f:
        graph_def = tf.GraphDef()
        graph_def.ParseFromString(f.read())
        return graph_def
tf.import_graph_def(load_graph("frozen_inference_graph.pb"))

保存的模型是由tf.saved_model.builder生成的模型,必须导入到会话中,此文件包含具有所有训练权重的完整图(就像冻结图一样)但这里可以训练上,这个没有序列化,需要通过这个片段加载。 [] 是可以被 saved_model_cli 读取的标签常量。该模型也经常用于预测,例如 google ml engine par 示例:

with tf.Session() as sess:
    tf.saved_model.loader.load(sess, [], "foldername to saved_model.pb, only folder")

model.ckpt 文件是检查点,在训练过程中生成,用于恢复训练或在训练后出现问题时进行备份。如果你有保存的模型和冻结的图表,那么你可以忽略这个。

.pbtxt 文件与前面讨论的模型基本相同,但人类可读,而不是二进制文件。这些也可以忽略。

回答您的转换问题: saved models can be transformed into a frozen graph 反之亦然,虽然从 frozen graph 中提取的 saved_model 也是不可训练的,但它的存储方式是 saved model 格式。可以读入检查点并将其加载到会话中,然后您可以从中构建保存的模型。

希望能帮到你,有什么问题,尽管问!

添加:

如何从保存的模型文件夹结构开始冻结图表。 这个 post 是旧的,所以我之前使用的方法可能不再适用,它很可能仍然适用于 Tensorflow 1.+.

首先下载 this file from the tensorflow library,然后这段代码片段应该可以解决问题:

    import freeze_graph # the file you just downloaded
    from tensorflow.python.saved_model import tag_constants # might be unnecessary

    freeze_graph.freeze_graph(
        input_graph=None,
        input_saver=None,
        input_binary=None,
        input_checkpoint=None,
        output_node_names="dense_output/BiasAdd",
        restore_op_name=None,
        filename_tensor_name=None,
        output_graph=os.path.join(path, "frozen_graph.pb"),
        clear_devices=None,
        initializer_nodes=None,
        input_saved_model_dir=path,
        saved_model_tags=tag_constants.SERVING
    )

output_node_names = 最终操作的节点名,如果在dense层结束,就是dense layer_name/BiasAdd

output_graph = 输出图名

input_saved_model_dir = 保存模型的根文件夹

saved_model_tags = 保存的模型标签,在你的情况下这可以是 None,但是我确实使用了标签。

另一个补充:

上面已经提供了加载模型的代码。要真正预测您需要一个会话,对于已保存的模型,该会话已经创建,对于冻结的模型,则不是。

保存的模型:

with tf.Session() as sess:
    tf.saved_model.loader.load(sess, [], "foldername to saved_model.pb, only folder")
    prediction = sess.run(output_tensor, feed_dict={input_tensor: test_images})

冻结模型:

tf.import_graph_def(load_graph("frozen_inference_graph.pb"))
with tf.Session() as sess:
    prediction = sess.run(output_tensor, feed_dict={input_tensor: test_images})

要进一步了解您的输入和输出层是什么,您需要使用 tensorboard 检查它们,只需将以下代码行添加到您的会话中:

tf.summary.FileWriter("path/to/folder/to/save/logs", sess.graph)

此行将创建一个日志文件,您可以使用 cli/powershell 打开该文件,了解如何 运行 tensorboard,查看此

补充一下,frozen_graph.pb包括两件事: 1.图形定义 2.训练好的参数

而save_model.pb,只有图形定义。

这就是为什么如果您检查两个 .pb 文件的大小,frozen_graph.pb 总是更大。