使用Docker快速搭建Hadoop,Spark测试环境
阅读原文时间:2021年04月20日阅读:1
  1. Docker 安装参考:http://www.runoob.com/docker/docker-tutorial.html

  2. 合适的hadoop,Spark镜像:git clone https://github.com/big-data-europe/docker-hadoop-spark-workbench.git

  3.  进入下载后的目录  docker-hadoop-spark-workbench ,执行docker-compose up -d  

docker ps 可以看到上图,hadoop,spark都启动了