Spark:如何增加从站的驱动器大小

Spark: How to increase drive size in slaves

如何启动一个集群,每个集群都有 100GB 的驱动器。

./spark-ec2 -k xx -i xx.pem -s 1 --hadoop-major-version=yarn --region=us-east-1 \
--zone=us-east-1b  --spark-version=1.6.1 \
--vpc-id=vpc-xx --subnet-id=subnet-xx --ami=ami-yyyyyy \
 launch cluster-test

我使用了一个大小为 100GB 的 AMI;然而,Spark 调整了它的大小并启动​​了一个 8GB 的​​驱动器。如何将该限​​制增加到 100GB?

这解决了问题,但问题仍然寻求答案以避免首先出现此问题。

原来EBS卷是100GB,但是上面的镜像只有8GB。这就是为什么它只被视为 8GB 的​​原因。要将图像分布在磁盘上,此 blog described in details how to do it. In addition, this SO answer 也很有帮助。