在 GCP Jupyter 笔记本中显示 Spark jobs/stages/tasks 及其名称?

Show Spark jobs/stages/tasks and their names in GCP Jupyter Notebooks?

我最近从 AWS 搬到了 GCP,当然它们有一些相似之处和一些不同之处。其中之一是在 AWS EMR notebook 中可以看到 Spark Jobs/stages/tasks 及其在代码运行时的进度:

然而,在GCP notebook中,我看到的只是阶段数和进度:

有没有办法按照它在 AWS 上的显示方式显示它,或者它是否受平台限制?

虽然没有开箱即用的解决方案,但您可以使用 documentation 中所述的监控仪表板。
还有一个类似的问题得到了回答here
如果您想要实时进度条,可以在 Public Issue Tracker.

上提交功能请求