1. 程式人生 > >Spark專案之環境搭建(單機)三 scala-2.12.7+ spark-2.3.2-bin-hadoop2.7安裝

Spark專案之環境搭建(單機)三 scala-2.12.7+ spark-2.3.2-bin-hadoop2.7安裝

上傳scala和spark架包

解壓然後重新命名

tar -zxf scala-2.12.7.tgz
mv scala-2.12.7 scala
tar -zxf spark-2.3.2-bin-hadoop2.7.tgz
mv spark-2.3.2-bin-hadoop2.7 spark

然後配置scala 和spark的環境變數:

vi /etc/profile
#scala
export SCALA_HOME=/home/scala
export PATH=${SCALA_HOME}/bin:$PATH
#spark
export SPARK_HOME=/home/spark/
export PATH=${SPARK_HOME}/bin:$PATH

  

然後載入環境變數

source /etc/profile

然後輸入scala

scala

成功結構如下

 進入spark 的conf裡面拷貝一個,現在我只配置單機可執行的即可。

cp spark-env.sh.template spark-env.sh
cp slaves.template slaves

加入以下配置: 

vi spark-env.sh
#java
export JAVA_HOME=/home/jdk

#scala
export SCALA_HOME=/home/scala

#Spark主節點的IP
export SPARK_MASTER_IP=hadoop

#Spark主節點的埠號
export SPARK_MASTER_PORT=7077

  HADOOP_CONF_DIR這個hadoop的配置讀取檔案,我並沒有配置,所以在寫程式碼讀取hadoop的資料就需要加入地址。

然後進入spark/sbin目錄啟動spark:cd /home/spark/sbin

./start-all.sh
jps

 然後再瀏覽器上輸入:  你spark安裝的IP:8080,我的IP是192.168.131.155,所以輸入 192.168.131.155:8080