Master在Spark单机集群中的作用
Role of master in Spark standalone cluster
在 Spark 独立集群中,master(以 start_master.sh 脚本启动的节点)的确切作用是什么?
我知道那是从 submit-job.sh 脚本接收作业的节点,但是它在处理作业时的作用是什么?
我在网络上看到 UI 总是将作业传递给从节点(以 start_slave.sh 开头的节点)并且不参与处理,我说得对吗?在那种情况下,我是否也应该 运行 在与 master 相同的机器中的脚本 start_slave.sh 来利用它的资源(cpu 和内存)?
提前致谢。
Spark 运行s 在以下集群模式中:
- 本地
- 独立
- 金币
- 纱线
以上是为Spark应用提供资源的集群模式
Spark standalone模式是主从架构,我们有Spark Master和Spark Workers。集群节点之一中的 Spark Master 运行 和集群的 Slave 节点上的 Spark Worker 运行。
Spark Master (often written standalone Master) is the resource manager
for the Spark Standalone cluster to allocate the resources (CPU, Memory, Disk etc...) among the
Spark applications. The resources are used to run the Spark Driver and Executors.
Spark Worker向Spark Master汇报Slave节点的资源信息。
[apache-spark]
Spark 独立版自带资源管理器。将 Spark Master/Worker 视为 YARN ResourceManager/NodeManager.
在 Spark 独立集群中,master(以 start_master.sh 脚本启动的节点)的确切作用是什么?
我知道那是从 submit-job.sh 脚本接收作业的节点,但是它在处理作业时的作用是什么?
我在网络上看到 UI 总是将作业传递给从节点(以 start_slave.sh 开头的节点)并且不参与处理,我说得对吗?在那种情况下,我是否也应该 运行 在与 master 相同的机器中的脚本 start_slave.sh 来利用它的资源(cpu 和内存)?
提前致谢。
Spark 运行s 在以下集群模式中:
- 本地
- 独立
- 金币
- 纱线
以上是为Spark应用提供资源的集群模式
Spark standalone模式是主从架构,我们有Spark Master和Spark Workers。集群节点之一中的 Spark Master 运行 和集群的 Slave 节点上的 Spark Worker 运行。
Spark Master (often written standalone Master) is the resource manager for the Spark Standalone cluster to allocate the resources (CPU, Memory, Disk etc...) among the Spark applications. The resources are used to run the Spark Driver and Executors.
Spark Worker向Spark Master汇报Slave节点的资源信息。
[apache-spark]
Spark 独立版自带资源管理器。将 Spark Master/Worker 视为 YARN ResourceManager/NodeManager.