Flink叢集部署詳細步驟
1.下載Flink壓縮包
我叢集環境是hadoop2.6,Scala2.11版本的,所以下載的是:
flink-1.3.1-bin-hadoop26-scala_2.11.tgz。
2.解壓
上傳至五個節點的相同目錄,執行如下命令解壓:
tar xzf flink-1.3.1-bin-hadoop26-scala_2.11.tgz |
3.配置master節點
選擇一個 master節點(JobManager)然後在conf/flink-conf.yaml中設定jobmanager.rpc.address
配置項為該節點的IP
或者主機名。確保所有節點有有一樣的jobmanager.rpc.address
4.配置slaves
將所有的 worker 節點 (TaskManager)的IP 或者主機名(一行一個)填入conf/slaves 檔案中。
5.啟動flink叢集
bin/start-cluster.sh |
6.注意
問https://ci.apache.org/projects/flink/flink-docs-release-1.0/setup/config.html檢視更多可用的配置項。為了使Flink 更高效的執行,還需要設定一些配置項。
以下都是非常重要的配置項:
1、TaskManager總共能使用的記憶體大小(taskmanager.heap.mb)
2、每一臺機器上能使用的
CPU
3、叢集中的總 CPU個數(parallelism.default)
4、臨時目錄(taskmanager.tmp.dirs)
7.示例
下面的例子闡述了三個節點的叢集部署(IP地址從10.0.0.1 到10.0.0.3,主機名分別為master, worker1, worker2)。並且展示了配置檔案,以及所有機器上一致的可訪問的安裝路徑。
8.Flink On Yarn配置
你可以很方便地將 Flink部署在現有的YARN叢集上,操作如下:
1、下載 Flink Hadoop2包: Flink with Hadoop 2
2、確保你的
3、執行 YARN客戶端:./bin/yarn-session.sh。你可以帶引數執行客戶端 -n 10 -tm 8192表示分配 10個 TaskManager,每個擁有8 GB 的記憶體。
相關推薦
Flink叢集部署詳細步驟
1.下載Flink壓縮包 我叢集環境是hadoop2.6,Scala2.11版本的,所以下載的是: flink-1.3.1-bin-hadoop26-scala_2.11.tgz。 2.解壓 上傳至
LNMT部署詳細步驟並實現負載均衡
mysqld ins col follow all gtid lib64 lin uid 實驗環境 主機名 IP 操作系統 所需配置 A 192.168.24.131 centos7 2個Tomcat B 192.168.24.146 centos7 my
kubernetes+docker+dashboard安裝部署詳細步驟
fire col owin selinux 打通 dct des 主機名 -c 對docker和kubernetes都不熟悉,搜了很多指導,在kubernetes集群中安裝dashboard的時候總是會遇到各種問題,花了兩天時間試了很多方法,終於安裝成功,主體步驟來自
在VMWare中建立Hadoop虛擬叢集的詳細步驟 使用CentOS
分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!  
HBase叢集搭建詳細步驟及講解
一、上傳hbase安裝包 cd /usr/hbase (沒有hbase目錄自己建立一個) 二、解壓 解壓:tar -zxvf hbase-2.0.0-bin.tar.gz 三、配置hbase叢集(首先zk叢集要安裝好,可以參考我的zk叢集安裝步驟) 1.先
linux系統MySQL的安裝和hive叢集安裝詳細步驟及講解
此安裝步驟是多年經驗總結,一定要嚴格按照步驟進行,一定要細心!!! MySQL的安裝是重中之重!!!出現錯誤很難修改!!! 另外安裝命令不要複製!!!自己手敲!!!不要複製!!!複製可能導致出錯!!! 空格,小數點要格外注意,都不能少 一、先刪除Linux自帶的MySQL 1、找到
Java架構-KafKa叢集安裝詳細步驟
最近在使用Spring Cloud進行分散式微服務搭建,順便對整合KafKa的方案做了一些總結,今天詳細介紹一下KafKa叢集安裝過程: 1.在根目錄建立kafka資料夾(service1、service2、service3都建立) [[email protected]
1.大資料指CDH叢集搭建詳細步驟(一)
1.使用CDH,其中CDH表示的意思是Cloudera’s Distribution Including Apache Hadoop,簡稱“CDH”) 基於web的使用者介面,支援大多數的hadoop元件,包括了HDFS,MapReduce以及HIve和Pig Hbase以及Zookeepe
阿里雲伺服器的web專案釋出之路:(五)nodejs的安裝和專案部署詳細步驟
Nodejs如何部署在雲服務上 第一步:下載nodejs安裝包,並解壓壓縮包[解壓後預設在root下面] wget命令下載Node.js安裝包,該安裝包是編譯好的檔案,解壓之後,無需重複編 命令列:wget https://nodejs.org/dist/v6.
Redis主從架構和主從從架構叢集搭建詳細步驟
,本文主要介紹Redis主從架構和主從從架構,耐心閱讀完本文,相信你會對Redis主從架構和主從從架構有一個清晰的認識。 Redis主從複製的功能非常強大,它有以下好處: 1.避免Redis單點故障 2.構建讀寫分離架構,滿足讀多寫少的應用場景 1.主從架
redis3.0.0 叢集安裝詳細步驟
Redis叢集部署文件(centos6系統) (要讓叢集正常工作至少需要3個主節點,在這裡我們要建立6個redis節點,其中三個為主節點,三個為從節點,對應的redis節點的ip和埠對應關係如下) 127.0.0.1:7000 127.0.0.1:7001 127.0.
linux redis3叢集安裝詳細步驟與測試 redis cluster
執行redis的建立叢集命令建立叢集 ./redis-trib.rb create --replicas 1 192.168.215.129:7000 192.168.215.129:7001 192.168.215.129:7002 192.168.215.130:7003 192.168.
在VMWare中建立Hadoop虛擬叢集的詳細步驟(使用CentOS)
最近在學習Hadoop,於是想使用VMWare建立一個虛擬的叢集環境。網上有很多參考資料,但參照其步驟進行設定時卻還是遇到了不少問題,所以在這裡詳細寫一下我的配置過程,以及其中遇到的問題及相應的解決方法。一來做個記錄,二來也希望能幫到大家。 目標 我們要建立一個具有如下配置的叢集: hos
Redis叢集部署詳細
Redis叢集部署文件(centos6系統) (要讓叢集正常工作至少需要3個主節點,在這裡我們要建立6個redis節點,其中三個為主節點,三個為從節點,對應的redis節點的ip和埠對應關係如下) 127.0.0.1:7000 127.0.0.1:7001 127.0.0.1:7
Kafka叢集搭建詳細步驟
詳情參考如下網站https://www.cnblogs.com/luotianshuai/p/5206662.html其他沒有修改什麼,我的環境是5臺虛擬機器,zoo.cfg檔案配置如下:# The number of milliseconds of each ticktic
Spark 叢集搭建詳細步驟
1修改主機名和hosts [[email protected] ~] hostname master [[email protected] ~] vi /etc/hostname #將裡面內容改為: master [[email protec
基於CentOS6.5系統Hadoop2.7.3完全分散式叢集搭建詳細步驟
前言:本次搭建hadoop叢集使用虛擬機器克隆方式克隆slave節點,這樣做可以省去很多不必要的操作,來縮短我們的搭建時間。 一、所需硬體,軟體要求 使用 VMWare構建三臺虛擬機器模擬真實物理環境 作業系統:CentOS6.5 二、必備條件 hadoop搭建需
Kafka(自帶的zookeeper)叢集搭建詳細步驟
Kafka叢集搭建 1、 Kafka的安裝需要java環境,cent os 7自帶java1.6版本,可以不用重新安裝,直接使用自帶的jdk 即可;如果覺得jdk版本太舊,也可以自己重新安裝; 3、 下載好kafka安裝包後,將其解壓到/usr/local目錄下,刪除壓縮包 4、 目前搭建了三個節點的ka
FastDFS5.05 linux 叢集部署詳細安裝教程
1、準備 1、一臺安裝好CentOS-6.5-x86_64-bin-DVD1.iso的計算機(安裝過程請詳見《CentOS6.5系統安裝及初始配置.doc》) 2、計算機接入分散式檔案系統區域網中,並且已經分配好IP地址並且Centos已經建立isvision使用者。 3、
Hadoop叢集搭建(詳細步驟)—完全分散式執行模式
分析: 1)準備3臺客戶機(關閉防火牆、靜態ip、主機名稱) 2)安裝jdk 3)配置環境變數 4)安裝hadoop 5)配置環境變數 6)配置叢集 7)單點啟動 8)配置ssh 9)群起並測試叢集 一、虛擬機器準備 詳見: 二、編寫叢集分