如何导出即时执行模型?
How do I export an eager execution model?
完成我的模型后,我现在希望按照 TensorFlow 网站上的 this 教程导出并部署它。但是,没有指示如何在急切执行中执行此操作,我无法在其中向 builder.add_meta_graph_and_variables()
.
提供会话或图表
在这种情况下,我的代码是否需要 eager 和图形兼容,或者我需要保存我的模型,将其导入会话,然后从那里导出?
TF 2.0 Alpha 支持 exporting/saving Eager Execution 模型(默认为 2.0 中的 Eager Execution)。 SavedModel 包含一个完整的 TensorFlow 程序,包括权重和计算。
示例代码如下所示:
!pip install -q tensorflow==2.0.0-alpha0
import tensorflow as tf
pretrained_model = tf.keras.applications.MobileNet()
tf.saved_model.save(pretrained_model, "/tmp/mobilenet/1/")
#Loading the saved model
loaded = tf.saved_model.load("/tmp/mobilenet/1/")
infer = loaded.signatures["serving_default"]
服务模型:
nohup tensorflow_model_server \
--rest_api_port=8501 \
--model_name=mobilenet \
--model_base_path="/tmp/mobilenet" >server.log 2>&1
#Sending the Request for Inference
!pip install -q requests
import json
import numpy
import requests
data = json.dumps({"signature_name": "serving_default",
"instances": x.tolist()})
headers = {"content-type": "application/json"}
json_response = requests.post('http://localhost:8501/v1/models/mobilenet:predict',
data=data, headers=headers)
predictions = numpy.array(json.loads(json_response.text)["predictions"])
完成我的模型后,我现在希望按照 TensorFlow 网站上的 this 教程导出并部署它。但是,没有指示如何在急切执行中执行此操作,我无法在其中向 builder.add_meta_graph_and_variables()
.
在这种情况下,我的代码是否需要 eager 和图形兼容,或者我需要保存我的模型,将其导入会话,然后从那里导出?
TF 2.0 Alpha 支持 exporting/saving Eager Execution 模型(默认为 2.0 中的 Eager Execution)。 SavedModel 包含一个完整的 TensorFlow 程序,包括权重和计算。
示例代码如下所示:
!pip install -q tensorflow==2.0.0-alpha0
import tensorflow as tf
pretrained_model = tf.keras.applications.MobileNet()
tf.saved_model.save(pretrained_model, "/tmp/mobilenet/1/")
#Loading the saved model
loaded = tf.saved_model.load("/tmp/mobilenet/1/")
infer = loaded.signatures["serving_default"]
服务模型:
nohup tensorflow_model_server \
--rest_api_port=8501 \
--model_name=mobilenet \
--model_base_path="/tmp/mobilenet" >server.log 2>&1
#Sending the Request for Inference
!pip install -q requests
import json
import numpy
import requests
data = json.dumps({"signature_name": "serving_default",
"instances": x.tolist()})
headers = {"content-type": "application/json"}
json_response = requests.post('http://localhost:8501/v1/models/mobilenet:predict',
data=data, headers=headers)
predictions = numpy.array(json.loads(json_response.text)["predictions"])