如何将第三方库添加到本地机器上的 spark 运行

how to add third party library to spark running on local machine

我正在收听 eventhub 流,并且看过将库附加到集群(databricks)的文章,我的代码运行文件。

为了调试,我 运行 本地 machine/cluster 上的代码,但由于缺少库而失败。当 运行 在本地计算机上时如何添加库。

我试过sparkcontext.addfile(fullpathtojar),但还是一样的错误。

我使用了 spark-submit --packages {package} 并且有效。

您可以使用 spark-submit --packages

示例: spark-submit --packages org.postgresql:postgresql:42.1.1

您需要找到您正在使用的包并检查与 spark 的兼容性。

对于单个 jar 文件,您将使用 spark-submit --jars