当其他笔记本 运行 时,Jupyter 集群让内核忙碌

Jupyter cluster gets Kernel busy when other notebooks are running

我在 google 云中有一个 jupyter 集群,当 运行 1 个笔记本时它工作正常。当打开第二个笔记本时,它一直显示 "Kernel Busy" 直到我 "Close and Halt" 第一个笔记本。

我可以在 jupyter(PySpark 内核)中一次只使用一个笔记本吗? 这会不会是我在启动集群时没有做的一些配置?

can I only use one notebook at time in jupyter (PySpark Kernel)?

很遗憾,只有一个

can this be some configuration I haven't done when starting the cluster?

很遗憾没有

所以如果你坚持使用Jupyter,需要记得关闭其他notebook。但是,如果您的脚本使用了集群的所有资源,这可能不是什么大问题。

我建议你尝试Zeppelin,它更适合作为 Spark 的笔记本环境。