问题 运行 spark-submit 打开一个 SparkContext

Issues running spark-submit opening a SparkContext

首先我描述一下我的场景。 Ubuntu 14.04 火花 1.6.3 Python3.5

我正在尝试通过 spark-submit 执行我的 python 脚本。我需要创建一个上下文,然后也应用 SQLContext。

主要是我在我的 pyspark 控制台中测试了一个非常简单的案例:

然后我正在创建 python 脚本。

from pyspark import SparkConf, SparkContext

conf = (SparkConf()
         .setMaster("local")
         .setAppName("My app")
         .set("spark.executor.memory", "1g"))
sc = SparkContext(conf = conf)

numbers = [1,2,3,4,5,6]

numbersRDD = sc.parallelize(numbers)
numbersRDD.take(2)

但是,当我在我的 submit-spark 中 运行 它不会 thru.I 永远不会得到结果:(

您没有理由得到 "results"。除了标准的 Spark 日志记录(在输出中可见)之外,您的脚本不会执行任何明显的副作用(打印到 stdout、写入文件)。 numbersRDD.take(2) 会执行得很好。

如果你想获得某种形式的输出print:

print(numbersRDD.take(2))

您还应该在退出前停止上下文:

sc.stop()