spark 2.3.1叢集搭建(Master,Slave,Slave)
基礎配置同上篇部落格
需要注意的配置有兩個
cd /usr/local/spark/
cp ./conf/slaves.template ./conf/slaves
#slaves檔案設定Worker節點。編輯slaves內容,把預設內容localhost替換成如下內容:
slave1
slave2
配置spark-env.sh檔案
將 spark-env.sh.template 拷貝到 spark-env.sh
cp ./conf/spark-env.sh.template ./conf/spark-env.sh
編輯spark-env.sh,新增如下內容:
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath) export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop export SPARK_MASTER_IP=192.168.137.129
配置完成後啟動master:
[email protected]:/usr/local$ ./spark/sbin/start-master.sh starting org.apache.spark.deploy.master.Master, logging to /usr/local/spark/logs/spark-lockey-org.apache.spark.deploy.master.Master-1-master.out [email protected]:/usr/local/spark$ jps 16371 Master 16421 Jps 15063 SecondaryNameNode 14840 NameNode 15210 ResourceManager
然後再啟動兩個slave(此命令在master上執行):
[email protected]:/usr/local$ ./spark/sbin/start-slaves.sh
slave1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark/logs/spark-lockey-org.apache.spark.deploy.worker.Worker-1-slave1.out
slave2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark/logs/spark-lockey-org.apache.spark.deploy.worker.Worker-1-slave2.out
[email protected]:/usr/local$ jps
1832 Jps
1578 NodeManager
1435 DataNode
1787 Worker
然後我們來驗證以下web介面吧,master埠為8080:
啟動slaves之後的介面會多出兩個Worker
我們再來看一下worker的web介面:
好了,到這裡我們的spark簡版叢集就搭建好了
關閉Spark叢集
關閉Master節點
sbin/stop-master.sh
關閉Worker節點
sbin/stop-slaves.sh
關閉Hadoop叢集
cd /usr/local/hadoop/
sbin/stop-all.sh
相關推薦
spark 2.3.1叢集搭建(Master,Slave,Slave)
基礎配置同上篇部落格 需要注意的配置有兩個 cd /usr/local/spark/ cp ./conf/slaves.template ./conf/slaves #slaves檔案設定Worker節點。編輯slaves內容,把預設內容localho
使用docker搭建spark(2.3.1)叢集
使用Docker快速搭建Spark叢集。 建立Spark叢集 首先在命令列下載該專案: git clone https://github.com/gettyimages/docker-spar
Centos6.8 安裝spark-2.3.1 以及 scala-2.12.2
一、Spark概述 Spark 是一個用來實現快速而通用的叢集計算的平臺。 在速度方面,Spark 擴充套件了廣泛使用的 MapReduce 計算模型,而且高效地支援更多計算模式,包括互動式查詢和流處理。 在處理大
Hadoop-2.4.1叢集搭建步驟
首先說明,博主以前也沒學過Hadoop,更別提Linux。只不過買了點資料,覺得不看也是浪費,索性找了時間學習了一下,別說,還真是吸引人。 言歸正傳,博主機器:筆記本 Y50-70 美版的 搭建環境:VM11(VMware Workstation 11),使用的是CenOS
hadoop2.8.4+spark2.3.1叢集搭建
1、安裝虛擬機器和linux系統(本文示例Ubuntu16.04 x86_64系統)(此處略過,詳見《安裝linux虛擬機器》) 為了更好使用,記得安裝virtual box的增強功能
整理了maven中基於spark-2.3.1常用的依賴和外掛
<?xml version="1.0" encoding="UTF-8"?> <project xmlns="
Kafka_2.12-2.5.1叢集搭建與引數調優
Kafka是目前業界使用最廣泛的訊息佇列。資料流轉常見這樣的業務場景,客戶端把採集到的日誌推送給Kafka,業務方可以消費Kafka的資料落地HDFS,用於離線分析,也可以使用Spark或Flink消費Kafka中的資料,用於實時計算。Kafka在資料流轉過程中發揮著紐帶作用,可用於日誌採集和資料處理系統間的
Redis 3.2.1叢集搭建
一、概述 Redis3.0版本之後支援Cluster. 1.1、redis cluster的現狀 目前redis支援的cluster特性: 1):節點自動發現 2):slave->master 選舉,叢集容錯 3):Hot re
Spark修煉之道(進階篇)——Spark入門到精通:第十五節 Kafka 0.8.2.1 叢集搭建
作者:周志湖 微訊號:zhouzhihubeyond 本節為下一節Kafka與Spark Streaming做鋪墊 主要內容 1.kafka 叢集搭建 1. kafka 叢集搭建 kafka 安裝與配置 tar -zxvf kafka_2
CentOS 7搭建Spark 2.3.2叢集
一、伺服器叢集 伺服器 安裝內容 node-i scala-2.12.7; spark-2.3.2 node-ii scala-2.12.7; spark-2.3.2 node-iii scala-2.12.7; spark-2.3.2
以yarn client和分散式叢集方式執行spark-2.3.2-bin-hadoop2.6
一以分散式叢集執行 修改配置檔案/hadoop_opt/spark-2.3.2-bin-hadoop2.6/conf/spark-env.sh export HADOOP_CONF_DIR=/hadoop_opt/hadoop-2.6.1/etc/hadoop expo
kubeadm HA master(v1.12.1)叢集搭建指南(離線包 + 自動化指令碼 + ipvs + keepalived + calico + helm) For Centos/Fedora_Kubernetes中文社群
0x00 文章楔子 本文旨在通過最簡易的方式指導讀者搭建HA kubernetes 1.12.1叢集 通過部署指令碼驅動kubeadm工具進行自動化部署,自動啟動keepalived負載均衡,calico網路外掛,並且開啟kube-proxy的IPVS模式。 本文中的自動化部署指令碼可以在Le
Spark-2.3叢集安裝
1、下載 2、解壓安裝 上傳至master伺服器 解壓至/opt/目錄 $ tar -zxvf spark-2.3.0-bin-hadoop2.7.tgz -C /opt/ $ mv spark-2.3.0-bin-hadoop2.7 spark-2.3.0 3、
Spark專案之環境搭建(單機)三 scala-2.12.7+ spark-2.3.2-bin-hadoop2.7安裝
上傳scala和spark架包 解壓然後重新命名 tar -zxf scala-2.12.7.tgz mv scala-2.12.7 scala tar -zxf spark-2.3.2-bin-hadoop2.7.tgz mv spark-2.3.
codis3.2.1叢集搭建與測試
Codis是一套用go語言編寫的,為了應對高並環境下的redis叢集軟體,原理是對一個redis key操作前,先把這個key通過crc32演算法,分配到不同redis的某一個slot上,實現併發讀寫功能.而且能通過zookeeper呼叫redis-sentinel來實現故障
大資料實時計算Spark學習筆記(2)—— Spak 叢集搭建
1 Spark 叢集模式 local: spark-shell --master local,預設的 standlone 1.複製 spark 目錄到其他主機 2.配置其他主機的環境變數 3.配置 master 節點的 slaves 檔案 4.啟動 spark
Elasticsearch5.2.1叢集搭建,動態加入節點,並新增監控診斷外掛
寫在前邊的話 ES5.2.1 叢集部署參考:http://blog.csdn.net/gamer_gyt/article/details/59077189 對於叢集的監控和優化是很重要的一部分,如果想持久維護叢集,單單靠增加實體記憶體,cpu,硬碟是不夠的,必須通過一些方法來進行優化。 叢
Hadoop-2.7.1叢集環境搭建
摘自:http://blog.csdn.net/u014039577/article/details/49813531 由於日誌資料量越來越大,資料處理的邏輯越來越複雜,同時還涉及到大量日誌需要批處理,當前的flume-kafka-storm-Hbase-web這一套流程已經不能滿足當前的需求了,所以只
hadoop-2.6.0-cdh5.4.5.tar.gz(CDH)的3節點叢集搭建(含zookeeper叢集安裝)
前言 附連結如下: http://blog.csdn.net/u010270403/article/details/51446674 關於幾個疑問和幾處心得! a.用NAT,還是橋接,還是only-host模式? b.用static的ip,還是dhcp的? 答:stat
Hadoop-3.0.0 + spark-2.3.0 +storm-1.2.1 的安裝心得
因為前段時間比賽用到spark,而實驗室叢集的spark版本還是1.6,帶來了不少麻煩,於是便想著把叢集的Hadoop和spark更新一下版本,另外,因為專案需要,再補裝個storm,一邊日後要用。說句題外話。spark,storm,Hadoop三者取首字母是SSH,這讓我想