Google Cloud Datastore:批量导入 w Node.js
Google Cloud Datastore: Bulk Importing w Node.js
我需要将大量实体(.csv 文件中的 150 万行)写入 Google Cloud Datastore。一种由两部分组成的问题:
我可以做(或者 kind
是必要的 属性 吗?):
const item = {
family: "chevrolet",
series: "impala",
data: {
sku: "chev-impala",
description: "Chevrolet Impala Sedan",
price: "20000"
}
}
然后,关于 importing 我不确定它是如何工作的。如果我不能简单地 dump/upload/import 一个巨大的 .json
文件,我想使用 Node.js。我希望每个实体都有一个自动生成的通用 ID。有没有异步的写法?我有一个节点脚本,它一次输出几百个 enteties/records 并暂停等待写入 resolve
。 ...这就是我要找的东西:承诺导入。
您可以使用 Apache Beam 将数据从 CSV 文件导入 Cloud Datastore。查看线程:。
文档 here 中解释了如何使用实体。
Exporting and Importing Entities 是一项完全托管的服务,您可以只导入之前使用托管导出和导入服务导出的实体。
我需要将大量实体(.csv 文件中的 150 万行)写入 Google Cloud Datastore。一种由两部分组成的问题:
我可以做(或者 kind
是必要的 属性 吗?):
const item = {
family: "chevrolet",
series: "impala",
data: {
sku: "chev-impala",
description: "Chevrolet Impala Sedan",
price: "20000"
}
}
然后,关于 importing 我不确定它是如何工作的。如果我不能简单地 dump/upload/import 一个巨大的 .json
文件,我想使用 Node.js。我希望每个实体都有一个自动生成的通用 ID。有没有异步的写法?我有一个节点脚本,它一次输出几百个 enteties/records 并暂停等待写入 resolve
。 ...这就是我要找的东西:承诺导入。
您可以使用 Apache Beam 将数据从 CSV 文件导入 Cloud Datastore。查看线程:
文档 here 中解释了如何使用实体。
Exporting and Importing Entities 是一项完全托管的服务,您可以只导入之前使用托管导出和导入服务导出的实体。