将模型加载到 Tensorflow 服务容器中并使用 protobufs 与其通信

Load a model into Tensorflow serving container and use protobufs for communicating with it

我知道如何将模型加载到 tensorflow 服务容器中并通过 http 请求与其通信,但我对如何使用 protobufs 有点困惑。使用 protobufs 的步骤是什么?我可以只将模型加载到容器中并使用如下所示的内容吗:

from tensorflow_serving.apis import 

request = predict_pb2.PredictRequest()
request.model_spec.name = 'resnet'
request.model_spec.signature_name = 'serving_default' 

或者after/before加载模型我需要做一些额外的步骤吗?

以下是在 Python 中对 gRPC 进行推理调用的示例代码:

resnet_client_grpc.py

在上面的同一文件夹中,您将找到调用 REST 端点的示例。