如何检查apache spark Job的性能
how to check performance of apache spark Job
我已经安装了 Apache Spark 2.3.1,需要检查哪个脚本有效
问题:
1.How 我是否监控 Apache Spark 脚本的执行?
2.Which 这些脚本之一是有效的?
rdd = sc.textFile("Readme.txt")
1:
rdd.flatMap(x => x.split(" ")).countByValue()
2:
words = rdd.flatMap(lambda x: x.split(" "))
result = words.map(lambda x: (x, 1)).reduceByKey(lambda x, y: x + y)
使用 spark web ui,它包含监控性能所需的信息——时间、执行程序统计信息、阶段统计信息、任务统计信息、资源统计信息等。
我已经安装了 Apache Spark 2.3.1,需要检查哪个脚本有效
问题:
1.How 我是否监控 Apache Spark 脚本的执行?
2.Which 这些脚本之一是有效的?
rdd = sc.textFile("Readme.txt")
1:
rdd.flatMap(x => x.split(" ")).countByValue()
2:
words = rdd.flatMap(lambda x: x.split(" "))
result = words.map(lambda x: (x, 1)).reduceByKey(lambda x, y: x + y)
使用 spark web ui,它包含监控性能所需的信息——时间、执行程序统计信息、阶段统计信息、任务统计信息、资源统计信息等。