1. 程式人生 > >叢集部署spark

叢集部署spark

在叢集啟動的前提下,首先安裝scala(主節點與從節點都安裝),scala安裝教程:http://blog.csdn.net/shuang_927/article/details/75986240

從官網下載spark安裝包,此次講解所安裝的版本為:

Scala-2.10.6

hadoop-2.7.1

spark-1.6.1-bin-hadoop2.6


配置環境變數:

編輯根目錄下的.bash_profile檔案,新增如下兩行:

export SPARK_HOME=/usr/spark/spark-1.6.1-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin


看到很多部落格,都有配置如圖所示JAR這一行,如:

export SPARK_EXAMPLES_JAR=$HOME/spark-0.7.2/examples/target/scala-2.9.3/spark-examples_2.9.3-0.7.2.jar
但我是在spark的安裝目錄下的examples資料夾下,沒有target及其以下路徑的檔案和jar,不知道是否有人遇到和我一樣的情況,因此我配置的路徑為lib目錄下的jar包。
進入spark的安裝目錄下的conf資料夾下,
cp spark-env.sh.template spark-env.sh
修改spark-env.sh檔案,新增如下三行:
export SCALA_HOME=/usr/scala/scala-2.10.6
export JAVA_HOME=/usr/java/jdk1.8.0_101
SPARK_MASTER_IP=master
複製slaves.template到slaves:cp slaves.template slaves
修改slaves檔案內容:(把localhost修改為從節點的主機名,有幾個從節點就寫幾個)
將master配置好的檔案拷貝至從節點根目錄:scp spark-1.6.1-bin-hadoop2.6 [email protected]:~/
進入slave,將拷貝的檔案移動至與master的相同資料夾下。
啟動spark叢集:(在master上執行)
進入spark安裝目錄下的sbin目錄,啟動叢集命令:./start-all.sh
執行jps命令,如圖所示證明啟動驗證成功:
master:
slave:

虛擬機器瀏覽器訪問http://master:8080,出現如下頁面


關閉spark叢集命令:進入spark安裝目錄下的sbin目錄,執行./stop-all.sh。

相關推薦

叢集部署spark

在叢集啟動的前提下,首先安裝scala(主節點與從節點都安裝),scala安裝教程:http://blog.csdn.net/shuang_927/article/details/75986240 從官網下載spark安裝包,此次講解所安裝的版本為: Scala-2.10.

spark叢集部署

1、下載spark,在這之前需要安裝scala wget https://d3kbcqa49mib13.cloudfront.net/spark-2.2.0-bin-hadoop2.7.tgz  2、配置環境變數 vi /etc/profile export SPARK_H

spark-2.2.0 叢集安裝部署以及hadoop叢集部署

Spark在生產環境中,主要部署在安裝Linux系統的叢集中。在linux系統中安裝Spark需要預先安裝JDK、Scala等所需要的依賴。 由於Spark是計算框架,所以需要預先在叢集內有搭建好儲存資料的持久化層,如HDFS、Hive、Cassandra等,最後可以通過啟動指令碼執行應用。

spark 1 5 1 叢集部署

實驗環境 作業系統:ubuntu 14.04 64位 主機名 IP Master 10.107.12.10 Worker1 10.

Ansible自動化部署Spark叢集

關於ansible請參考ansible中文權威指南   線上安裝ansible yum -y install ansible   安裝環境: JAVA SCALA SPARK 目錄結構 [[email protecte

在Linux叢集部署Spark之前準備

在Linux叢集上部署Spark Spark安裝部署比較簡單, 使用者可以登入其官方網站(http://spark.apache.org/downloads.html) 下載Spark最新版本或歷史版本,也可以查閱Spark相關文件作為參考。本書開始寫作時,本章所述的環境搭建均以Spar

CDH+Storm+Spark (on yarm 模式)叢集部署

一、CDH部署環境:主機5臺,普通使用者stream免密; 本地yum源已配置, 1、環境準備 防火牆、selinux的狀態disable、root免密、控制代碼數(每個主機上能開啟的檔案數)、/etc/hosts--分發(ansible工具批量分發); 2、做一個C

spark叢集spark HA高可用快速部署 spark研習第一季

1、spark 部署 標籤: spark 0 apache spark專案架構 spark SQL -- spark streaming -- MLlib -- GraphX 0.1 hadoop快速搭建,主要利用hdfs儲

linux環境部署Spark叢集(Standalone Mode)

1.使用ssh-keygen生成私鑰和公鑰 命令如下: ssh-keygen -t rsa然後一直按回車鍵即可。 例子: [email protected]:~$ ssh-keygen -t rsa Generating public/private rsa key pair. Ente

利用docker 部署 spark項目的端口問題

spark 大數據 hadoop docker利用Docker 安裝項目:local模式要設置sparklocal.spark.driver.hostyarn模式中只設置sparklocal.spark.driver.host和可以啟動,但是無法執行任何語句,需要再設置sparkyarn.spark.dri

Spark筆記整理(一):spark單機安裝部署、分布式集群與HA安裝部署+spark源碼編譯

大數據 Spark [TOC] spark單機安裝部署 1.安裝scala 解壓:tar -zxvf soft/scala-2.10.5.tgz -C app/ 重命名:mv scala-2.10.5/ scala 配置到環境變量: export SCALA_HOME=/home/uplooking

FastDFS伺服器叢集部署和整合客戶端到SpringBoot

FastDFS是一個開源的輕量級分散式檔案系統,它對檔案進行管理,功能包括:檔案儲存、檔案同步、檔案訪問(檔案上傳、檔案下載)等,解決了大容量儲存和負載均衡的問題,同時也能做到在叢集環境下一臺機子上傳檔案,同時該組下的其他節點下也備份了上傳的檔案。做分散式系統開發時,其中要解決的一個問題就是圖片、音視訊

Centos7+nginx+tomcat 叢集部署實戰

1:安裝centos7(連結:http://pan.baidu.com/s/1o80x36a 密碼:xuwb),安裝步驟自己百度,並克隆4個虛擬機器 我的ip為(192.168.72.129 192.168.72.130 192.168.72.131 192.168.72.132) 2:

004.etcd叢集部署-發現

一 etcd發現簡介 1.1 需求背景 在實際環境中,叢集成員的ip可能不會提前知道。如使用dhcp自動獲取的情況,在這些情況下,使用自動發現來引導etcdetcd叢集,而不是指定靜態配置,這個過程被稱為“發現”。 etcd Discovery 使用已有的 etcd cluster

(視訊)asp.net core系列之k8s叢集部署視訊

0、前言 應許多網友的要求,特此錄製一下k8s叢集部署的視訊。在錄製完成後發現視訊的聲音存在一點瑕疵,不過不影響大家的觀感。 由於B站的賬號等級不夠無法上傳視訊因此先放在youku上(存在廣告),請大家多多包涵。 一、視訊說明 1、視訊地址: 如果有不懂,或者有疑問的歡迎留言。視訊分為兩段。 第一

rabbitmq線上遇到的問題以及叢集部署遇到的坑

作業系統發行版:CentOS7 RabbitMQ版本:3.6.11 伺服器主機規劃: 10.168.17.102 mq07.mq-cluster.mall.lt.com 10.168.17.98 mq08.mq-cluster.mall.lt.com 10.168.17.64

MySQL高可用負載均衡叢集部署

簡介 使用MySQL時隨著時間的增長,使用者量以及資料量的逐漸增加,訪問量更是劇增,最終將會使MySQL達到某個瓶頸,那麼MySQL的效能將會大大降低。這一結果也不利於軟體的推廣。   那麼如何跨過這個瓶頸,提高MySQL的併發量呢?方法有很多,分散式資料庫、讀寫分離

MyCat叢集部署(HAProxy + MyCat)

http://itindex.net/detail/56692-mycat-%E9%9B%86%E7%BE%A4-haproxy 一、本節課程的依賴課程 《高可用架構篇--第13節--MySQL原始碼編譯安裝(CentOS-6.6+MySQL-5.6)》 《高可用架構篇--第14節--M

Weblogic 12c叢集部署

Weblogic 12c叢集部署     我認為安裝weblogic有些簡單,一直點下一步就可以了。如果還是不行,就看這篇部落格:weblogic下載與安裝。如果是weblogic安裝程式啟動不了,就看這篇部落格:weblo

K8s叢集部署(二)------ Master節點部署

Master節點要部署三個服務:API Server、Scheduler、Controller Manager。 apiserver提供叢集管理的REST API介面,包括認證授權、資料校驗以 及叢集狀態變更等   只有API Server才直接操作etcd   其他模組通過API Server查詢