1. 程式人生 > >配置社群版spark執行在cdh yarn

配置社群版spark執行在cdh yarn

1、下載社群版本spark編譯包,一般選擇和cdh版本含的hadoop版本一致的社群編譯版spark;

2、在某臺伺服器上解壓spark安裝包

3、將SPARK_HOME環境變數加入/etc/profile,然後執行 source /etc/profile使其生效;

4、刪除軟連線 /etc/alternatives/spark-submit, /etc/alternatives/spark-shell, /etc/alternatives/pyspark, /etc/alternatives/spark-conf, 然後重新建立軟連線指向$SPARK_HOME/bin/spark-submit, $SPARK_HOME/bin/spark-shell, $SPARK_HOME/bin/pyspark,  $SPARK_HOME/conf

5、將對應scala編譯版本的kafka相關jar(spark-streaming-kafka-0-8_2.11-2.1.0.jar,kafka_2.11-0.8.2.1.jar,metrics-core-2.2.0.jar)放入$SPARK_HOME/jars

6、執行驗證