将模型加载到 Tensorflow 服务容器中并使用 protobufs 与其通信
Load a model into Tensorflow serving container and use protobufs for communicating with it
我知道如何将模型加载到 tensorflow 服务容器中并通过 http 请求与其通信,但我对如何使用 protobufs 有点困惑。使用 protobufs 的步骤是什么?我可以只将模型加载到容器中并使用如下所示的内容吗:
from tensorflow_serving.apis import
request = predict_pb2.PredictRequest()
request.model_spec.name = 'resnet'
request.model_spec.signature_name = 'serving_default'
或者after/before加载模型我需要做一些额外的步骤吗?
以下是在 Python 中对 gRPC 进行推理调用的示例代码:
在上面的同一文件夹中,您将找到调用 REST 端点的示例。
我知道如何将模型加载到 tensorflow 服务容器中并通过 http 请求与其通信,但我对如何使用 protobufs 有点困惑。使用 protobufs 的步骤是什么?我可以只将模型加载到容器中并使用如下所示的内容吗:
from tensorflow_serving.apis import
request = predict_pb2.PredictRequest()
request.model_spec.name = 'resnet'
request.model_spec.signature_name = 'serving_default'
或者after/before加载模型我需要做一些额外的步骤吗?
以下是在 Python 中对 gRPC 进行推理调用的示例代码:
在上面的同一文件夹中,您将找到调用 REST 端点的示例。