如何在 Google Cloud ML 上使用自定义预处理和数据文件进行推理
How to do Inference with Custom Preprocessing and Data Files on Google Cloud ML
我想使用我训练过的模型在 Google Cloud ML 上进行推理。这是一个 NLP 模型,我希望我的 node.js 服务器与模型交互以在训练时获得预测。
我有一个 运行 手动推理模型的过程,我想在云中复制:
- 使用 Stanford Core NLP 对我的文本进行标记化并生成存储我的标记化文本的数据文件。
- 让模型使用这些数据文件,从中创建 Tensorflow 示例,然后 运行 模型。
- 让模型打印出预测结果。
以下是我认为可以在云中复制它的方法:
- 使用我的 node.js 服务器将文本发送到云端。
- 运行 我的 python 脚本生成数据文件。看来我必须在自定义预测例程中执行此操作。我不确定如何在这里使用 Stanford Core NLP。
- 将数据文件保存在 Google 云端的存储桶中。
- 在自定义预测例程中,加载保存的数据文件并执行模型。
谁能告诉我这个过程是否正确?另外,我如何 运行 Stanford CoreNLP on Google Cloud 自定义预测例程?另外,有没有办法让我只 运行 命令行脚本(例如,为了创建数据文件,我有一个简单的命令,我通常只是 运行 创建它们)?
您可以在 Python 中实现自定义预处理方法并从那里调用 Stanford 工具包。有关详细信息,请参阅此博客和相关示例代码:https://cloud.google.com/blog/products/ai-machine-learning/ai-in-depth-creating-preprocessing-model-serving-affinity-with-custom-online-prediction-on-ai-platform-serving
我想使用我训练过的模型在 Google Cloud ML 上进行推理。这是一个 NLP 模型,我希望我的 node.js 服务器与模型交互以在训练时获得预测。
我有一个 运行 手动推理模型的过程,我想在云中复制:
- 使用 Stanford Core NLP 对我的文本进行标记化并生成存储我的标记化文本的数据文件。
- 让模型使用这些数据文件,从中创建 Tensorflow 示例,然后 运行 模型。
- 让模型打印出预测结果。
以下是我认为可以在云中复制它的方法:
- 使用我的 node.js 服务器将文本发送到云端。
- 运行 我的 python 脚本生成数据文件。看来我必须在自定义预测例程中执行此操作。我不确定如何在这里使用 Stanford Core NLP。
- 将数据文件保存在 Google 云端的存储桶中。
- 在自定义预测例程中,加载保存的数据文件并执行模型。
谁能告诉我这个过程是否正确?另外,我如何 运行 Stanford CoreNLP on Google Cloud 自定义预测例程?另外,有没有办法让我只 运行 命令行脚本(例如,为了创建数据文件,我有一个简单的命令,我通常只是 运行 创建它们)?
您可以在 Python 中实现自定义预处理方法并从那里调用 Stanford 工具包。有关详细信息,请参阅此博客和相关示例代码:https://cloud.google.com/blog/products/ai-machine-learning/ai-in-depth-creating-preprocessing-model-serving-affinity-with-custom-online-prediction-on-ai-platform-serving