Flink快速入門--安裝與示例執行
flink是一款開源的大資料流式處理框架,他可以同時批處理和流處理,具有容錯性、高吞吐、低延遲等優勢,本文簡述flink在windows和linux中安裝步驟,和示例程式的執行。
首先要想執行Flink,我們需要下載並解壓Flink的二進位制包,下載地址如下:https://flink.apache.org/downloads.html
我們可以選擇Flink與Scala結合版本,這裡我們選擇最新的1.9版本Apache Flink 1.9.0 for Scala 2.12進行下載。
下載成功後,在windows系統中可以通過Windows的bat檔案或者Cygwin來執行Flink。
在linux系統中分為單機,叢集和Hadoop等多種情況。
通過Windows的bat檔案執行
首先啟動cmd命令列視窗,進入flink資料夾,執行bin目錄下的start-cluster.bat
注意:執行flink需要java環境,請確保系統已經配置java環境變數。
$ cd flink $ cd bin $ start-cluster.bat Starting a local cluster with one JobManager process and one TaskManager process. You can terminate the processes via CTRL-C in the spawned shell windows. Web interface by default on http://localhost:8081/.
顯示啟動成功後,我們在瀏覽器訪問 http://localhost:8081/
可以看到flink的管理頁面。
通過Cygwin執行
Cygwin是一個在windows平臺上執行的類UNIX模擬環境,官網下載:http://cygwin.com/install.html
安裝成功後,啟動Cygwin終端,執行start-cluster.sh
指令碼。
$ cd flink
$ bin/start-cluster.sh
Starting cluster.
顯示啟動成功後,我們在瀏覽器訪問 http://localhost:8081/
可以看到flink的管理頁面。
Linux系統上安裝flink
單節點安裝
在Linux上單節點安裝方式與cygwin一樣,下載Apache Flink 1.9.0 for Scala 2.12,然後解壓後只需要啟動start-cluster.sh。
叢集安裝
叢集安裝分為以下幾步:
1、在每臺機器上覆制解壓出來的flink目錄。
2、選擇一個作為master節點,然後修改所有機器conf/flink-conf.yaml
jobmanager.rpc.address = master主機名
3、修改conf/slaves,將所有work節點寫入
work01
work02
4、在master上啟動叢集
bin/start-cluster.sh
安裝在Hadoop
我們可以選擇讓Flink執行在Yarn叢集上。
下載Flink for Hadoop的包
保證 HADOOP_HOME已經正確設定即可
啟動 bin/yarn-session.sh
執行flink示例程式
批處理示例:
提交flink的批處理examples程式:
bin/flink run examples/batch/WordCount.jar
這是flink提供的examples下的批處理例子程式,統計單詞個數。
$ bin/flink run examples/batch/WordCount.jar
Starting execution of program
Executing WordCount example with default input data set.
Use --input to specify file input.
Printing result to stdout. Use --output to specify output path.
(a,5)
(action,1)
(after,1)
(against,1)
(all,2)
(and,12)
(arms,1)
(arrows,1)
(awry,1)
(ay,1)
得到結果,這裡統計的是預設的資料集,可以通過--input --output指定輸入輸出。
我們可以在頁面中檢視執行的情況:
流處理示例:
啟動nc伺服器:
nc -l 9000
提交flink的批處理examples程式:
bin/flink run examples/streaming/SocketWindowWordCount.jar --port 9000
這是flink提供的examples下的流處理例子程式,接收socket資料傳入,統計單詞個數。
在nc端寫入單詞
$ nc -l 9000
lorem ipsum
ipsum ipsum ipsum
bye
輸出在日誌中
$ tail -f log/flink-*-taskexecutor-*.out
lorem : 1
bye : 1
ipsum : 4
停止flink
$ ./bin/stop-cluster.sh
大資料實時處理的王者-Flink
更多實時計算,Flink,Kafka等相關技術博文,歡迎關注實時流式計算
相關推薦
Flink快速入門--安裝與示例執行
flink是一款開源的大資料流式處理框架,他可以同時批處理和流處理,具有容錯性、高吞吐、低延遲等優勢,本文簡述flink在windows和linux中安裝步驟,和示例程式的執行。 首先要想執行Flink,我們需要下載並解壓Flink的二進位制包,下載地址如下:https://flink.apache.or
【第四篇】ASP.NET MVC快速入門之完整示例(MVC5+EF6)
redirect name php sql語句 rop 方法 輸入框 一次 編輯 目錄 【第一篇】ASP.NET MVC快速入門之數據庫操作(MVC5+EF6) 【第二篇】ASP.NET MVC快速入門之數據註解(MVC5+EF6) 【第三篇】ASP.NET MVC快速入門
S2X環境搭建與示例執行
S2X環境搭建與示例執行 http://dbis.informatik.uni-freiburg.de/forschung/projekte/DiPoS/S2X.html 環境 Maven project Built in Eclipse Eclipse 3.8/4.2/4.3
Ubuntu下Google Test的安裝與示例
這裡介紹在Ubuntu下安裝Google Test的一種簡便方法,如果大家要用最新版,可以去相關網站上下載最新原始碼。 環境:Ubuntu 16.04 64位桌面版 1. 安裝libgtest-dev; sudo apt install libgtest-dev -y 2. 編譯 cd /usr/
快速入門Hive與Hue的相連
一、安裝Hive 注:在本人部落格中有Hive的安裝,可前往觀看!!! 二、需要在"/home/hadoop/install/hive/conf/"中建立一個hive-site.xml 注:可以通過遠端連線工具來建立,這樣更加方便 三、在"hive-site.xml"中新增一
Linux下libevent安裝與示例
1.先用:ls -al /usr/lib | grep libevent 檢視是否已安裝,如果已安裝且版本比較低,則先通過:rpm -e libevent —nodeps 進行解除安裝。 3.切換到解壓後的 libevent 主目錄:cd libevent-2
Git入門——安裝與基本命令
一、Git 的安裝 下載地址:https://git-scm.com/ 一直點選下一步 二、Git 的基本命令 1、準備工作 訪問 GitHub:https://github.com 註冊或登入您的賬號 點選右上角的「New Repository」來新建
Linux下安裝redis的安裝與測試執行詳細解析
redis中的安裝 生產環境一定在Linux下安裝 redis是c語言開發的,Linux有很多發行版,centos是紅帽的社群版,不收費 2:安裝包需要重新編譯 在Linux拿的安裝包就是原始碼,進行編譯,必須使用c語言的編譯環境,需要gcc線上安裝 如果是帶圖形介
ElasticSearch 使用入門——安裝與啟動
ElasticSearch是一個基於Lucene的搜尋伺服器。它提供了一個分散式多使用者能力的全文搜尋引擎,基於RESTful web介面。Elasticsearch是用Java開發的,並作為Apache許可條款下的開放原始碼釋出,是第二最流行的企業搜
flink快速入門及採坑記錄
apache flink作為第四代mapreduce計算框架,已經得到越來越多的應用,這裡介紹如何快速入門,以及記錄一個記憶體錯誤的問題。1、安裝jdk2、下載flink,並解壓。wget https://mirrors.tuna.tsinghua.edu.cn/apache
esper安裝與示例
1. esper的安裝: 在 http://esper.codehaus.org/esper/download/download.html 這裡下載esper壓縮包。解壓縮之後獲得資料夾 esper-4.x.x,在該資料夾根目錄有 esper-4.x.x.jar,這就是我們
docker入門安裝與簡單使用
快速瞭解 (一) Docker 是什麼 官方給出的定義是:Docker是一個集開發,打包,執行應用於一體的開放式平臺。Docker可以用來快速交付應用。使用Docker,你可以將應用程式從你的基礎設施中分離出來,並將基礎設施當做一個管理平臺。Docker
官方Caffe-windows 配置與示例執行
本文主要介紹官方給出的caffe-windows的配置及如何訓練mnist資料集,介紹的比較基礎,大神請繞道 1、環境:windows 10\CUDA7.5\cuDNN\VS2013 2、GPU計算環境準備(沒有GPU的同學可以跳過此步) (1)首先下載並安裝CUDA7.5
Akka入門安裝以及示例(Java)
一、安裝開發環境1.確保安裝的java環境是1.6或以上;2.設定JAVA_HOME環境變數(java SDK所安裝的目錄) # export JAVA_HOME=..root of Java distribution.. # export PATH=$PATH
訊息中介軟體——RabbitMQ(五)快速入門生產者與消費者,SpringBoot整合RabbitMQ!
前言 本章我們來一次快速入門RabbitMQ——生產者與消費者。需要構建一個生產端與消費端的模型。什麼意思呢?我們的生產者傳送一條訊息,投遞到RabbitMQ叢集也就是Broker。 我們的消費端進行監聽RabbitMQ,當發現佇列中有訊息後,就進行消費。 1. 環境準備 本次整合主要採用Spring
hadoop快速入門教程:hadoop安裝包下載與監控參數說明
分布式 height tex region 集群 RoCE 發行版 store serve 前階段用了差不多兩周的時間把DKhadoop的運行環境搭建以及安裝的各個操作都介紹了一遍。關於DKhadoop安裝包下載也只是順帶說了一下,但好像大快搜索的服務器在更新,新的下載頁面
Python3入門筆記 —— windows安裝與執行
Python的設計哲學是“優雅”、“明確”、“簡單”。這也是我喜歡Python的理由之一 Python的安裝: 1.進入Python官方網站下載安裝包 點選導航欄的 Downloads 會自動識別你的windows系統 你會看到 Python3.6.2
Python3入門筆記(1) —— windows安裝與執行
Python的設計哲學是“優雅”、“明確”、“簡單”。這也是我喜歡Python的理由之一 Python的安裝: 點選導航欄的 Downloads 會自動識別你的windows系統 你會看到 Python3.6.2 和 Python2.7.13 (32位系統)的
Spark快速入門指南 – Spark安裝與基礎使用
Apache Spark 是一個新興的大資料處理通用引擎,提供了分散式的記憶體抽象。Spark 正如其名,最大的特點就是快(Lightning-fast),可比 Hadoop MapReduce 的處理速度快 100 倍。此外,Spark 提供了簡單易用的 API,幾行程式碼
Windows10下的docker安裝與入門 (三) 建立自己的docker映象並且在容器中執行它
Docker 是一個開源的應用容器引擎,讓開發者可以打包他們的應用以及依賴包到一個可移植的容器中,然後釋出到任何流行的 Linux 機器上,也可以實現虛擬化。容器是完全使用沙箱機制,相互之間不會有任何介面。 本教程主要分以下幾點內容: ------------