Google 云平台中不同项目的 vm 实例之间传输数据的最佳方式
Best way to transfer data between vm instaces in different projects in Google cloud platform
在我的项目中,vm1 有 1 TB,vm2 有 1.5TB 数据。我想将这些数据备份并复制到不同项目(不同组织中的那个项目)中的另一个虚拟机。
首先执行此操作的最佳方法是什么我尝试过在 vm1 中压缩数据并上传到云存储桶,但它更耗时。
谢谢。
有几种方法可以做到。
如果这是一台 Linux 机器,您可以使用 rsync
同步远程机器上的多个文件夹 - 它可以 运行 使用cron
每天或每小时 - 取决于您希望创建备份的频率。这是一个非常有用的信息
您可以尝试在 t运行sfer 之前压缩数据,但这会花费很多时间(考虑到您有超过 1TB)。
我认为最快的方法是 运行通过 Internet 传输未压缩的数据
you will be charged for egress traffic(从 0.01 美元/GB 甚至高达 0.15 美元/GB!)。
您不能使用 Shared VPC,因为这只能在一个组织内部使用,并且您在不同的组织中拥有虚拟机;
Shared VPC connects projects within the same organization
您可以使用其他协议来执行 运行sfer,例如 FTP,使用 Samba 或仅在 Windows[=34= 中使用常规文件夹共享](如果我们谈论的是此类机器)或 Windows 的某些 rsyn
亲戚,例如 cwRsync.
如果您提供有关您的用例的更多详细信息,那么我可以更新我的答案并提供更多最新的解决方案。
在我的项目中,vm1 有 1 TB,vm2 有 1.5TB 数据。我想将这些数据备份并复制到不同项目(不同组织中的那个项目)中的另一个虚拟机。
首先执行此操作的最佳方法是什么我尝试过在 vm1 中压缩数据并上传到云存储桶,但它更耗时。
谢谢。
有几种方法可以做到。
如果这是一台 Linux 机器,您可以使用 rsync
同步远程机器上的多个文件夹 - 它可以 运行 使用cron
每天或每小时 - 取决于您希望创建备份的频率。这是一个非常有用的信息
您可以尝试在 t运行sfer 之前压缩数据,但这会花费很多时间(考虑到您有超过 1TB)。
我认为最快的方法是 运行通过 Internet 传输未压缩的数据 you will be charged for egress traffic(从 0.01 美元/GB 甚至高达 0.15 美元/GB!)。
您不能使用 Shared VPC,因为这只能在一个组织内部使用,并且您在不同的组织中拥有虚拟机;
Shared VPC connects projects within the same organization
您可以使用其他协议来执行 运行sfer,例如 FTP,使用 Samba 或仅在 Windows[=34= 中使用常规文件夹共享](如果我们谈论的是此类机器)或 Windows 的某些 rsyn
亲戚,例如 cwRsync.
如果您提供有关您的用例的更多详细信息,那么我可以更新我的答案并提供更多最新的解决方案。