Pyspark-Jupyter- Docker : 如何在 jupyter/pyspark-notebook 中定义主节点和工作节点后重建和部署 image/container?
Pyspark-Jupyter- Docker : How to rebuild and deploy image/container after defining master and worker node in the jupyter/pyspark-notebook?
如何在 add/modify 脚本之后重建 jupyter-pyspark-notebook docker 容器?
拉完后我的要求如下jupyter/pyspark-notebook
- 在集群中创建一个 Master 和 worker 节点作为 2 container 1 for master 和 for worker
- 构建一个 image/container 作为 docker 容器化应用程序
- 将此容器部署为微服务应用程序
我没有看到与此具体相关的任何合适的文章或文档..
感谢是否有人可以提供帮助?
谢谢
关注blog article.
- 拉
jupyter/pyspark-notebook
和 运行
- 做你的修改
- 通过 'docker commit' 将自定义 docker 图像提交到 docker 中心。为此,您可能需要 log-in 到 docker 中心。
- 从 docker 中心检查您的自定义图片
- 从您的应用程序中提取您的 docker 图像
如何在 add/modify 脚本之后重建 jupyter-pyspark-notebook docker 容器?
拉完后我的要求如下jupyter/pyspark-notebook
- 在集群中创建一个 Master 和 worker 节点作为 2 container 1 for master 和 for worker
- 构建一个 image/container 作为 docker 容器化应用程序
- 将此容器部署为微服务应用程序
我没有看到与此具体相关的任何合适的文章或文档..
感谢是否有人可以提供帮助?
谢谢
关注blog article.
- 拉
jupyter/pyspark-notebook
和 运行 - 做你的修改
- 通过 'docker commit' 将自定义 docker 图像提交到 docker 中心。为此,您可能需要 log-in 到 docker 中心。
- 从 docker 中心检查您的自定义图片
- 从您的应用程序中提取您的 docker 图像