frozen_inference_graph.pb 和 saved_model.pb 有什么区别?
What is difference frozen_inference_graph.pb and saved_model.pb?
我有一个经过训练的模型 (Faster R-CNN),我使用 export_inference_graph.py
将其导出用于推理。我试图了解创建的 frozen_inference_graph.pb
和 saved_model.pb
以及 model.ckpt*
文件之间的区别。我也看过 .pbtxt
表示。
我试着通读了这篇文章,但找不到真正的答案:https://www.tensorflow.org/extend/tool_developers/
每个文件都包含什么?
哪些可以转换为其他哪些?
每个人的理想目的是什么?
frozen_inference_graph.pb,是一个无法再训练的冻结图,它定义了graphdef,实际上是一个序列化图,可以用这段代码加载:
def load_graph(frozen_graph_filename):
with tf.gfile.GFile(frozen_graph_filename, "rb") as f:
graph_def = tf.GraphDef()
graph_def.ParseFromString(f.read())
return graph_def
tf.import_graph_def(load_graph("frozen_inference_graph.pb"))
保存的模型是由tf.saved_model.builder生成的模型,必须导入到会话中,此文件包含具有所有训练权重的完整图(就像冻结图一样)但这里可以训练上,这个没有序列化,需要通过这个片段加载。 [] 是可以被 saved_model_cli 读取的标签常量。该模型也经常用于预测,例如 google ml engine par 示例:
with tf.Session() as sess:
tf.saved_model.loader.load(sess, [], "foldername to saved_model.pb, only folder")
model.ckpt 文件是检查点,在训练过程中生成,用于恢复训练或在训练后出现问题时进行备份。如果你有保存的模型和冻结的图表,那么你可以忽略这个。
.pbtxt 文件与前面讨论的模型基本相同,但人类可读,而不是二进制文件。这些也可以忽略。
回答您的转换问题:
saved models can be transformed into a frozen graph 反之亦然,虽然从 frozen graph 中提取的 saved_model 也是不可训练的,但它的存储方式是 saved model 格式。可以读入检查点并将其加载到会话中,然后您可以从中构建保存的模型。
希望能帮到你,有什么问题,尽管问!
添加:
如何从保存的模型文件夹结构开始冻结图表。
这个 post 是旧的,所以我之前使用的方法可能不再适用,它很可能仍然适用于 Tensorflow 1.+.
首先下载 this file from the tensorflow library,然后这段代码片段应该可以解决问题:
import freeze_graph # the file you just downloaded
from tensorflow.python.saved_model import tag_constants # might be unnecessary
freeze_graph.freeze_graph(
input_graph=None,
input_saver=None,
input_binary=None,
input_checkpoint=None,
output_node_names="dense_output/BiasAdd",
restore_op_name=None,
filename_tensor_name=None,
output_graph=os.path.join(path, "frozen_graph.pb"),
clear_devices=None,
initializer_nodes=None,
input_saved_model_dir=path,
saved_model_tags=tag_constants.SERVING
)
output_node_names = 最终操作的节点名,如果在dense层结束,就是dense layer_name/BiasAdd
output_graph = 输出图名
input_saved_model_dir = 保存模型的根文件夹
saved_model_tags = 保存的模型标签,在你的情况下这可以是 None,但是我确实使用了标签。
另一个补充:
上面已经提供了加载模型的代码。要真正预测您需要一个会话,对于已保存的模型,该会话已经创建,对于冻结的模型,则不是。
保存的模型:
with tf.Session() as sess:
tf.saved_model.loader.load(sess, [], "foldername to saved_model.pb, only folder")
prediction = sess.run(output_tensor, feed_dict={input_tensor: test_images})
冻结模型:
tf.import_graph_def(load_graph("frozen_inference_graph.pb"))
with tf.Session() as sess:
prediction = sess.run(output_tensor, feed_dict={input_tensor: test_images})
要进一步了解您的输入和输出层是什么,您需要使用 tensorboard 检查它们,只需将以下代码行添加到您的会话中:
tf.summary.FileWriter("path/to/folder/to/save/logs", sess.graph)
此行将创建一个日志文件,您可以使用 cli/powershell 打开该文件,了解如何 运行 tensorboard,查看此
补充一下,frozen_graph.pb包括两件事:
1.图形定义
2.训练好的参数
而save_model.pb,只有图形定义。
这就是为什么如果您检查两个 .pb 文件的大小,frozen_graph.pb 总是更大。
我有一个经过训练的模型 (Faster R-CNN),我使用 export_inference_graph.py
将其导出用于推理。我试图了解创建的 frozen_inference_graph.pb
和 saved_model.pb
以及 model.ckpt*
文件之间的区别。我也看过 .pbtxt
表示。
我试着通读了这篇文章,但找不到真正的答案:https://www.tensorflow.org/extend/tool_developers/
每个文件都包含什么? 哪些可以转换为其他哪些? 每个人的理想目的是什么?
frozen_inference_graph.pb,是一个无法再训练的冻结图,它定义了graphdef,实际上是一个序列化图,可以用这段代码加载:
def load_graph(frozen_graph_filename):
with tf.gfile.GFile(frozen_graph_filename, "rb") as f:
graph_def = tf.GraphDef()
graph_def.ParseFromString(f.read())
return graph_def
tf.import_graph_def(load_graph("frozen_inference_graph.pb"))
保存的模型是由tf.saved_model.builder生成的模型,必须导入到会话中,此文件包含具有所有训练权重的完整图(就像冻结图一样)但这里可以训练上,这个没有序列化,需要通过这个片段加载。 [] 是可以被 saved_model_cli 读取的标签常量。该模型也经常用于预测,例如 google ml engine par 示例:
with tf.Session() as sess:
tf.saved_model.loader.load(sess, [], "foldername to saved_model.pb, only folder")
model.ckpt 文件是检查点,在训练过程中生成,用于恢复训练或在训练后出现问题时进行备份。如果你有保存的模型和冻结的图表,那么你可以忽略这个。
.pbtxt 文件与前面讨论的模型基本相同,但人类可读,而不是二进制文件。这些也可以忽略。
回答您的转换问题: saved models can be transformed into a frozen graph 反之亦然,虽然从 frozen graph 中提取的 saved_model 也是不可训练的,但它的存储方式是 saved model 格式。可以读入检查点并将其加载到会话中,然后您可以从中构建保存的模型。
希望能帮到你,有什么问题,尽管问!
添加:
如何从保存的模型文件夹结构开始冻结图表。 这个 post 是旧的,所以我之前使用的方法可能不再适用,它很可能仍然适用于 Tensorflow 1.+.
首先下载 this file from the tensorflow library,然后这段代码片段应该可以解决问题:
import freeze_graph # the file you just downloaded
from tensorflow.python.saved_model import tag_constants # might be unnecessary
freeze_graph.freeze_graph(
input_graph=None,
input_saver=None,
input_binary=None,
input_checkpoint=None,
output_node_names="dense_output/BiasAdd",
restore_op_name=None,
filename_tensor_name=None,
output_graph=os.path.join(path, "frozen_graph.pb"),
clear_devices=None,
initializer_nodes=None,
input_saved_model_dir=path,
saved_model_tags=tag_constants.SERVING
)
output_node_names = 最终操作的节点名,如果在dense层结束,就是dense layer_name/BiasAdd
output_graph = 输出图名
input_saved_model_dir = 保存模型的根文件夹
saved_model_tags = 保存的模型标签,在你的情况下这可以是 None,但是我确实使用了标签。
另一个补充:
上面已经提供了加载模型的代码。要真正预测您需要一个会话,对于已保存的模型,该会话已经创建,对于冻结的模型,则不是。
保存的模型:
with tf.Session() as sess:
tf.saved_model.loader.load(sess, [], "foldername to saved_model.pb, only folder")
prediction = sess.run(output_tensor, feed_dict={input_tensor: test_images})
冻结模型:
tf.import_graph_def(load_graph("frozen_inference_graph.pb"))
with tf.Session() as sess:
prediction = sess.run(output_tensor, feed_dict={input_tensor: test_images})
要进一步了解您的输入和输出层是什么,您需要使用 tensorboard 检查它们,只需将以下代码行添加到您的会话中:
tf.summary.FileWriter("path/to/folder/to/save/logs", sess.graph)
此行将创建一个日志文件,您可以使用 cli/powershell 打开该文件,了解如何 运行 tensorboard,查看此
补充一下,frozen_graph.pb包括两件事: 1.图形定义 2.训练好的参数
而save_model.pb,只有图形定义。
这就是为什么如果您检查两个 .pb 文件的大小,frozen_graph.pb 总是更大。