
Spark与Docker Swarm结合:利用Docker Swarm部署Apache Spark
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
本文介绍如何将Apache Spark与Docker Swarm相结合,并详细阐述了使用Docker Swarm部署Apache Spark集群的方法和优势。
要在DigitalOcean上使用Docker Swarm运行Spark,请按照以下步骤操作:
1. 学习如何构建它。
2. 如果想要使用该项目,首先从Digital Ocean获取访问令牌,并将其添加到您的环境中:
```
$ export DIGITAL_OCEAN_ACCESS_TOKEN=[your_token]
```
3. 启动三个Droplet并部署Docker Swarm:
```
$ sh scripts/create.sh
```
4. 运行脚本:
```
$ sh scripts/run.sh
```
5. 若要减少资源,可以运行以下命令:
```
$ sh scripts/destroy.sh
```
全部评论 (0)
还没有任何评论哟~


