将 Apache Zeppelin 与现有的 Spark 集群一起使用
Use Apache Zeppelin with existing Spark Cluster
我想安装 Zeppelin 以使用我现有的 Spark 集群。我使用了以下方式:
- Spark 大师(适用于 Hadoop 2.4 的 Spark 1.5.0):
- 飞艇 0.5.5
- 火花奴隶
我下载了 Zeppelin v0.5.5 并通过以下方式安装:
mvn clean package -Pspark-1.5 -Dspark.version=1.5.0 -Dhadoop.version=2.4.0 -Phadoop-2.4 -DskipTests
我看到,local[*] master 设置在没有我的 Spark 集群的情况下也能正常工作(笔记本在关闭 Spark 集群时也可以运行)。
我的问题:当我想将我的 Spark Cluster 用于 Streaming 应用程序时,它似乎无法正常工作。当我使用 spark://my_server:7077 作为 master 时,我的 SQL-Table 是空的 - 在本地模式下一切正常!
另请参阅我描述问题的其他问题:
我是不是搞错了
- 通过 "mvn clean packge" 安装时?
- 关于设置masterurl?
- Spark and/or Hadoop 版本(有限制吗???)
- 我是否必须在 zeppelin-env.sh 文件中设置一些特殊的东西(实际上恢复为默认值)???
问题是由缺少库依赖引起的!所以在搜索太久之前,先检查依赖项,是否缺少一个!
%dep
z.reset
z.load("org.apache.spark:spark-streaming-twitter_2.10:1.5.1")
我想安装 Zeppelin 以使用我现有的 Spark 集群。我使用了以下方式:
- Spark 大师(适用于 Hadoop 2.4 的 Spark 1.5.0):
- 飞艇 0.5.5
- 火花奴隶
我下载了 Zeppelin v0.5.5 并通过以下方式安装:
mvn clean package -Pspark-1.5 -Dspark.version=1.5.0 -Dhadoop.version=2.4.0 -Phadoop-2.4 -DskipTests
我看到,local[*] master 设置在没有我的 Spark 集群的情况下也能正常工作(笔记本在关闭 Spark 集群时也可以运行)。
我的问题:当我想将我的 Spark Cluster 用于 Streaming 应用程序时,它似乎无法正常工作。当我使用 spark://my_server:7077 作为 master 时,我的 SQL-Table 是空的 - 在本地模式下一切正常!
另请参阅我描述问题的其他问题:
我是不是搞错了
- 通过 "mvn clean packge" 安装时?
- 关于设置masterurl?
- Spark and/or Hadoop 版本(有限制吗???)
- 我是否必须在 zeppelin-env.sh 文件中设置一些特殊的东西(实际上恢复为默认值)???
问题是由缺少库依赖引起的!所以在搜索太久之前,先检查依赖项,是否缺少一个!
%dep
z.reset
z.load("org.apache.spark:spark-streaming-twitter_2.10:1.5.1")