将 Apache Zeppelin 与现有的 Spark 集群一起使用

Use Apache Zeppelin with existing Spark Cluster

我想安装 Zeppelin 以使用我现有的 Spark 集群。我使用了以下方式:

我下载了 Zeppelin v0.5.5 并通过以下方式安装:

mvn clean package -Pspark-1.5 -Dspark.version=1.5.0 -Dhadoop.version=2.4.0 -Phadoop-2.4 -DskipTests

我看到,local[*] master 设置在没有我的 Spark 集群的情况下也能正常工作(笔记本在关闭 Spark 集群时也可以运行)。

我的问题:当我想将我的 Spark Cluster 用于 Streaming 应用程序时,它似乎无法正常工作。当我使用 spark://my_server:7077 作为 master 时,我的 SQL-Table 是空的 - 在本地模式下一切正常!

另请参阅我描述问题的其他问题:

我是不是搞错了

问题是由缺少库依赖引起的!所以在搜索太久之前,先检查依赖项,是否缺少一个!

%dep
z.reset
z.load("org.apache.spark:spark-streaming-twitter_2.10:1.5.1")