通过 conda 安装 pyspark 时没有启动历史记录-server.sh

No start-history-server.sh when pyspark installed through conda

我已经在 Ubuntu 到 conda install pyspark 的 miniconda 环境中安装了 pyspark。到目前为止,一切正常:我可以通过 spark-submit 运行 个作业,并且可以在 localhost:4040 检查 运行 个作业。但是我找不到 start-history-server.sh,我需要查看已完成的作业。

应该在{spark}/sbin,其中{spark}是spark的安装目录。当通过 conda 安装 spark 时,我不确定它应该在哪里,但我已经搜索了整个 miniconda 目录,但我似乎无法找到 start-history-server.sh。对于它的价值,这适用于 python 3.7 和 2.7 环境。

我的问题是:start-history-server.sh 是否包含在 pyspark 的 conda 安装中? 如果是,在哪里?如果否,建议的事后评估 Spark 作业的替代方法是什么?

编辑:我已提交拉取请求以将历史服务器脚本添加到 pyspark。拉取请求已被合并,所以这应该暂时出现在 Spark 3.0 中。


正如@pedvaljim 在评论中指出的那样,这不是特定于 conda 的,目录 sbin 根本不包含在 pyspark 中。

好消息是可以手动下载此文件夹 from github(即不确定如何只下载一个目录,我只是克隆了所有 spark)到您的 spark 文件夹中。如果您使用的是 mini- 或 anaconda,则 spark 文件夹是例如miniconda3/envs/{name_of_environment}/lib/python3.7/site-packages/pyspark.