1. 程式人生 > >spark叢集配置

spark叢集配置

1.jdk環境

2.scala安裝和環境配置

 

3.spark

配置spark-env.sh

export JAVA_HOME=/usr/java/jdk1.8.0_141
export SCALA_HOME=/usr/scala
export SPARK_MASTER_IP=han01
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_CORES=1 #每個Worker程序所需要的CPU核的數目;
export SPARK_WORKER_INSTANCES=1 #每個Worker節點上執行Worker程序的數目
export SPARK_WORKER_CORES
=1 #每個WORK再節點執行時佔用的cpu個數 export SPARK_WORKER_MEMORY=1g export HADOOP_CONF_DIR=/usr/hadoop/hadoop-2.7.3/etc/hadoop SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.de ploy.zookeeper.url=han01:2181,han02:2181,han03:2181 -Dspark.deploy.zooke eper.dir=/spark"

 

4.配置slaves(worker坐在的機器)

 

 

5.避免與hadoop啟動命令衝突

修改.sh

 

6.jdk

將配置 拷貝到其他兩個機器

重新整理環境變數: source /etc/profile

 

7.啟動spark

 8.進入shell介面

  9.(出現問題)拒絕連線: