Pyspark-Jupyter- Docker : 如何在 jupyter/pyspark-notebook 中定义主节点和工作节点后重建和部署 image/container?

Pyspark-Jupyter- Docker : How to rebuild and deploy image/container after defining master and worker node in the jupyter/pyspark-notebook?

如何在 add/modify 脚本之后重建 jupyter-pyspark-notebook docker 容器?

拉完后我的要求如下jupyter/pyspark-notebook

  1. 在集群中创建一个 Master 和 worker 节点作为 2 container 1 for master 和 for worker
  2. 构建一个 image/container 作为 docker 容器化应用程序
  3. 将此容器部署为微服务应用程序

我没有看到与此具体相关的任何合适的文章或文档..

感谢是否有人可以提供帮助?

谢谢

关注blog article.

  1. jupyter/pyspark-notebook 和 运行
  2. 做你的修改
  3. 通过 'docker commit' 将自定义 docker 图像提交到 docker 中心。为此,您可能需要 log-in 到 docker 中心。
  4. 从 docker 中心检查您的自定义图片
  5. 从您的应用程序中提取您的 docker 图像