对于随机内容的巨大目录 (1 - 10TB),是否有任何好的 tar 压缩算法?
Are there any good tar compression algorithms for huge directories (1 - 10TB) of random content?
我想备份和压缩我 Linux PC 上的所有数据。所有这些文件的大小加起来约为 3.4 TB。我想用 tar 和一些压缩算法压缩它们。
我已经尝试过一些算法,如 xz,但它们只产生了 10% 的边际压缩(损失在 100 到 300 gig 之间)。
对于如此庞大的数据量,是否有任何算法可以产生 20% 到 40% 的压缩率?就算法而言,RAM 和处理能力都不是我关心的问题(32 GB RAM 和 4790k)。
xz 已经是一个很好的压缩器了。看来您的数据根本就不是很可压缩。没有神奇的压缩器可以做得好两到四倍。您可能会从基于 PPM 的压缩器中获得一点收益,也许,但是很多。
您唯一的希望可能是识别已应用于您的数据的压缩,对其进行解压缩,然后使用比原始压缩器更好的压缩器对其进行重新压缩。
我想备份和压缩我 Linux PC 上的所有数据。所有这些文件的大小加起来约为 3.4 TB。我想用 tar 和一些压缩算法压缩它们。
我已经尝试过一些算法,如 xz,但它们只产生了 10% 的边际压缩(损失在 100 到 300 gig 之间)。
对于如此庞大的数据量,是否有任何算法可以产生 20% 到 40% 的压缩率?就算法而言,RAM 和处理能力都不是我关心的问题(32 GB RAM 和 4790k)。
xz 已经是一个很好的压缩器了。看来您的数据根本就不是很可压缩。没有神奇的压缩器可以做得好两到四倍。您可能会从基于 PPM 的压缩器中获得一点收益,也许,但是很多。
您唯一的希望可能是识别已应用于您的数据的压缩,对其进行解压缩,然后使用比原始压缩器更好的压缩器对其进行重新压缩。