我怎么知道我的 --output_arrays 在 tflite_convert
How do i know my --output_arrays in tflite_convert
我正在尝试使用 tflite_convert
将我的 .pb 转换为 .tflite
我怎么知道我的 --output_arrays?
我正在使用 ssd_mobilenet_v2_coco_2018_03_29
这是我当前的代码:
tflite_convert --output_file=C:/tensorflow1/models/research/object_detection/inference_graph/detect.tflite --graph_def_file=C:/tensorflow1/models/research/object_detection/inference_graph/tflite_graph.pb --inference_type=FLOAT --inference_input_type=QUANTIZED_UINT8 --input_arrays=ImageTensor --input_shapes=1,513,513,3 --output_arrays=SemanticPredictions --mean_values=128 --std_dev_values=128 --allow_custom_ops
并产生错误:
Specified output array "SemanticPredictions" is not produced by any op in this graph.
关注来自
https://www.tensorflow.org/lite/convert/cmdline_examples#command-line_tools_
一种选择是使用 Netron 可视化图表。
单击特定图层会给出其名称,在本例中为:** MobilenetV1/Predictions/Softmax**
希望对您有所帮助:)
我正在尝试使用 tflite_convert
将我的 .pb 转换为 .tflite我怎么知道我的 --output_arrays?
我正在使用 ssd_mobilenet_v2_coco_2018_03_29
这是我当前的代码:
tflite_convert --output_file=C:/tensorflow1/models/research/object_detection/inference_graph/detect.tflite --graph_def_file=C:/tensorflow1/models/research/object_detection/inference_graph/tflite_graph.pb --inference_type=FLOAT --inference_input_type=QUANTIZED_UINT8 --input_arrays=ImageTensor --input_shapes=1,513,513,3 --output_arrays=SemanticPredictions --mean_values=128 --std_dev_values=128 --allow_custom_ops
并产生错误:
Specified output array "SemanticPredictions" is not produced by any op in this graph.
关注来自 https://www.tensorflow.org/lite/convert/cmdline_examples#command-line_tools_
一种选择是使用 Netron 可视化图表。
单击特定图层会给出其名称,在本例中为:** MobilenetV1/Predictions/Softmax**
希望对您有所帮助:)