如何将 SQL 转储文件从 Google 云存储导入云 SQL 作为日常工作?
How to import a SQL Dump File from Google Cloud Storage into Cloud SQL as a Daily Job?
我正在尝试将 SQL 转储文件从 Google 云存储导入云 SQL(Postgres 数据库)作为日常工作。
我在 CloudAPI 的 Google 文档中看到有一种方法可以以编程方式导入 SQL 转储文件(URL:https://cloud.google.com/sql/docs/postgres/admin-api/v1beta4/instances/import#examples),但老实说,我在这里有点迷路。我以前没有使用 API 进行过编程,我认为这是一个主要因素。
在文档中,我看到有一个 HTTP POST 请求和代码的区域,但我不确定它会去哪里。理想情况下,我想使用其他 Cloud 产品来完成这项日常工作。任何帮助将非常感激。
(旁注:
我一直在考虑为此在 Compute Engine 中创建一个 cron 作业,但我担心维护的难易程度,尤其是因为我还有其他要构建的作业依赖于此作业。
我读过 Dataflow 可以帮助解决这个问题,但我还没有看到任何(教程)表明它可以。我对数据流也很陌生,所以这也可能是一个因素。 )
我建议使用 google-cloud-composer
,它本质上是气流。有很多操作员可以在不同位置之间移动文件。您可以找到更多信息 here
不过我必须警告,它仍处于 Beta 阶段,与 google 的预期 Beta 不同,这个版本相当不稳定(至少根据我的经验)
我正在尝试将 SQL 转储文件从 Google 云存储导入云 SQL(Postgres 数据库)作为日常工作。
我在 CloudAPI 的 Google 文档中看到有一种方法可以以编程方式导入 SQL 转储文件(URL:https://cloud.google.com/sql/docs/postgres/admin-api/v1beta4/instances/import#examples),但老实说,我在这里有点迷路。我以前没有使用 API 进行过编程,我认为这是一个主要因素。
在文档中,我看到有一个 HTTP POST 请求和代码的区域,但我不确定它会去哪里。理想情况下,我想使用其他 Cloud 产品来完成这项日常工作。任何帮助将非常感激。
(旁注: 我一直在考虑为此在 Compute Engine 中创建一个 cron 作业,但我担心维护的难易程度,尤其是因为我还有其他要构建的作业依赖于此作业。
我读过 Dataflow 可以帮助解决这个问题,但我还没有看到任何(教程)表明它可以。我对数据流也很陌生,所以这也可能是一个因素。 )
我建议使用 google-cloud-composer
,它本质上是气流。有很多操作员可以在不同位置之间移动文件。您可以找到更多信息 here
不过我必须警告,它仍处于 Beta 阶段,与 google 的预期 Beta 不同,这个版本相当不稳定(至少根据我的经验)