puppet同步大文件效率高吗?

Is puppet efficient in synchronizing large files?

puppet 处理大文件的效率如何?举个具体的例子:

假设我们正在处理以千兆字节为单位的配置数据(存储在文件中)。 Puppet 需要确保每个代理 运行.

的文件都是最新的

问题:puppet 是预先执行某些文件摘要类型的操作,还是只是在代理期间虚拟复制每个配置文件 运行s?

我不完全确定现在 puppets 文件服务器在最新的更新中工作,但在以前的版本中 Puppet 将文件读入内存,这就是为什么不建议使用文件服务器传输大于 1gb 的文件。我建议您仔细阅读这些答案,看看是否有意义 https://serverfault.com/a/398133

使用 file { 'name': source => <URL> } 时,文件内容不会通过网络发送,除非主服务器和代理服务器之间的校验和不匹配。默认校验和类型是 md5.

当心 content 属性 file。它的值是目录的一部分。不要通过 file()template() 函数为其分配大文件的内容。

所以是的,您可以通过 Puppet 在技术上管理任意大小的文件。实际上,我尽量避免它,因为 Puppet 的所有文件都应该是 git 存储库或类似文件的一部分。不要把你的压缩包放在那里。 Puppet 可以通过其他方式(包、HTTP 等)部署它们。