1. 程式人生 > 其它 >02.spark-spark分散式安裝

02.spark-spark分散式安裝

1.規劃 三臺伺服器

s101 //master(程序)
s102 ~ s104 //worker(程序)

2.在每個主機上分別安裝spark


3.配置spark(每個節點進行相同操作)
3.1)在spark的conf目錄下建立hadoop的core-site.xml和hdfs-site.xml軟連線
$>xcall.sh ln -s /soft/hadoop/etc/hadoop/core-site.xml /soft/spark/conf/core-site.xml
$>xcall.sh ln -s /soft/hadoop/etc/hadoop/hdfs-site.xml /soft/spark/conf/hdfs-site.xml

3.2)配置JAVA_HOME環境變數


$>cd /soft/spark/conf
$>cp spark-env.sh.template spark-env.sh
$>nano spark-env.sh
...
export JAVA_HOME=/soft/jdk
...

2)新增JAVA_HOME環境變數

[centos@s101 /soft/spark/sbin]$nano spark-config.sh

#java JDK
export JAVA_HOME=/soft/jdk


3.3)修改slaves檔案
$>cd /soft/spark/conf
$>cp slaves.template slaves
$>nano slaves
s102
s103
s104

3.4)分發配置檔案


$>xsync.sh spark-env.sh
$>xsync.sh slaves

4.啟動spark叢集
4.1)啟動hadoop叢集
xzk.sh start //啟動zk
start-dfs.sh //啟動hdfs
4.2)啟動spark
$>cd /soft/spark/sbin
$>./start-all.sh

5.webui
http://s101:8080

5上傳本地檔案到hdfs

[centos@s101 /home/centos]$hadoop fs -mkdir /user/centos/download
檢視當前目錄資訊
        hdfs dfs -ls /
        
上傳檔案
        hdfs dfs -put /本地路徑 /hdfs路徑


6.啟動spark shell,連線到spark叢集
$>spark-shell --master spark://s101:7077
$>sc.textFile("/user/centos/data/1.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect()

http://s101:8080 檢視執行情況