1. 程式人生 > >Spark-- docker + spark +hadoop進行搭建本機的偽叢集

Spark-- docker + spark +hadoop進行搭建本機的偽叢集

簡介

之前擺弄了一個docker + hadoop3.1 的映象,通不了,所以這裡直接先再github上找了一個Spark搭建的叢集。
docker-sparkhttps://github.com/houshuai0816/docker-spark 這個專案中當前使用的是Spark 2.3.0 和 hadoop2.7 和jdk8

構建

  • 進行檢出倉庫內容
git clone https://github.com/houshuai0816/docker-spark.git
  • 進入你的容器
cd G:\project\Github_Porject\docker-spark
  • 通過yml進行啟動此專案
docker-compose up -d

這裡寫圖片描述