1. 程式人生 > >Flink快速入門--安裝與示例執行

Flink快速入門--安裝與示例執行

flink是一款開源的大資料流式處理框架,他可以同時批處理和流處理,具有容錯性、高吞吐、低延遲等優勢,本文簡述flink在windows和linux中安裝步驟,和示例程式的執行。

首先要想執行Flink,我們需要下載並解壓Flink的二進位制包,下載地址如下:https://flink.apache.org/downloads.html

我們可以選擇Flink與Scala結合版本,這裡我們選擇最新的1.9版本Apache Flink 1.9.0 for Scala 2.12進行下載。

下載成功後,在windows系統中可以通過Windows的bat檔案或者Cygwin來執行Flink。

在linux系統中分為單機,叢集和Hadoop等多種情況。

通過Windows的bat檔案執行

首先啟動cmd命令列視窗,進入flink資料夾,執行bin目錄下的start-cluster.bat

注意:執行flink需要java環境,請確保系統已經配置java環境變數。

$ cd flink
$ cd bin
$ start-cluster.bat
Starting a local cluster with one JobManager process and one TaskManager process.
You can terminate the processes via CTRL-C in the spawned shell windows.
Web interface by default on http://localhost:8081/.

顯示啟動成功後,我們在瀏覽器訪問 http://localhost:8081/
可以看到flink的管理頁面。

通過Cygwin執行

Cygwin是一個在windows平臺上執行的類UNIX模擬環境,官網下載:http://cygwin.com/install.html

安裝成功後,啟動Cygwin終端,執行start-cluster.sh指令碼。

$ cd flink
$ bin/start-cluster.sh
Starting cluster.

顯示啟動成功後,我們在瀏覽器訪問 http://localhost:8081/
可以看到flink的管理頁面。

單節點安裝

在Linux上單節點安裝方式與cygwin一樣,下載Apache Flink 1.9.0 for Scala 2.12,然後解壓後只需要啟動start-cluster.sh。

叢集安裝

叢集安裝分為以下幾步:

1、在每臺機器上覆制解壓出來的flink目錄。

2、選擇一個作為master節點,然後修改所有機器conf/flink-conf.yaml

jobmanager.rpc.address = master主機名

3、修改conf/slaves,將所有work節點寫入

work01
work02

4、在master上啟動叢集

bin/start-cluster.sh

安裝在Hadoop

我們可以選擇讓Flink執行在Yarn叢集上。

下載Flink for Hadoop的包

 保證 HADOOP_HOME已經正確設定即可

啟動 bin/yarn-session.sh

執行flink示例程式

批處理示例:

提交flink的批處理examples程式:

bin/flink run examples/batch/WordCount.jar

這是flink提供的examples下的批處理例子程式,統計單詞個數。

$ bin/flink run examples/batch/WordCount.jar
Starting execution of program
Executing WordCount example with default input data set.
Use --input to specify file input.
Printing result to stdout. Use --output to specify output path.
(a,5)
(action,1)
(after,1)
(against,1)
(all,2)
(and,12)
(arms,1)
(arrows,1)
(awry,1)
(ay,1)

得到結果,這裡統計的是預設的資料集,可以通過--input --output指定輸入輸出。

我們可以在頁面中檢視執行的情況:

流處理示例:

啟動nc伺服器:

nc -l 9000

提交flink的批處理examples程式:

bin/flink run examples/streaming/SocketWindowWordCount.jar --port 9000

這是flink提供的examples下的流處理例子程式,接收socket資料傳入,統計單詞個數。

在nc端寫入單詞

$ nc -l 9000
lorem ipsum
ipsum ipsum ipsum
bye

輸出在日誌中

$ tail -f log/flink-*-taskexecutor-*.out
lorem : 1
bye : 1
ipsum : 4

停止flink

$ ./bin/stop-cluster.sh

大資料實時處理的王者-Flink

更多實時計算,Flink,Kafka等相關技術博文,歡迎關注實時流式計算

相關推薦

Flink快速入門--安裝示例執行

flink是一款開源的大資料流式處理框架,他可以同時批處理和流處理,具有容錯性、高吞吐、低延遲等優勢,本文簡述flink在windows和linux中安裝步驟,和示例程式的執行。 首先要想執行Flink,我們需要下載並解壓Flink的二進位制包,下載地址如下:https://flink.apache.or

【第四篇】ASP.NET MVC快速入門之完整示例(MVC5+EF6)

redirect name php sql語句 rop 方法 輸入框 一次 編輯 目錄 【第一篇】ASP.NET MVC快速入門之數據庫操作(MVC5+EF6) 【第二篇】ASP.NET MVC快速入門之數據註解(MVC5+EF6) 【第三篇】ASP.NET MVC快速入門

S2X環境搭建示例執行

S2X環境搭建與示例執行 http://dbis.informatik.uni-freiburg.de/forschung/projekte/DiPoS/S2X.html 環境 Maven project Built in Eclipse Eclipse 3.8/4.2/4.3

Ubuntu下Google Test的安裝示例

  這裡介紹在Ubuntu下安裝Google Test的一種簡便方法,如果大家要用最新版,可以去相關網站上下載最新原始碼。 環境:Ubuntu 16.04 64位桌面版 1. 安裝libgtest-dev; sudo apt install libgtest-dev -y  2. 編譯 cd /usr/

快速入門HiveHue的相連

一、安裝Hive 注:在本人部落格中有Hive的安裝,可前往觀看!!! 二、需要在"/home/hadoop/install/hive/conf/"中建立一個hive-site.xml 注:可以通過遠端連線工具來建立,這樣更加方便 三、在"hive-site.xml"中新增一

Linux下libevent安裝示例

1.先用:ls -al /usr/lib | grep libevent  檢視是否已安裝,如果已安裝且版本比較低,則先通過:rpm -e libevent —nodeps 進行解除安裝。 3.切換到解壓後的 libevent 主目錄:cd libevent-2

Git入門——安裝基本命令

  一、Git 的安裝 下載地址:https://git-scm.com/ 一直點選下一步   二、Git 的基本命令 1、準備工作 訪問 GitHub:https://github.com 註冊或登入您的賬號 點選右上角的「New Repository」來新建

Linux下安裝redis的安裝測試執行詳細解析

redis中的安裝 生產環境一定在Linux下安裝 redis是c語言開發的,Linux有很多發行版,centos是紅帽的社群版,不收費 2:安裝包需要重新編譯 在Linux拿的安裝包就是原始碼,進行編譯,必須使用c語言的編譯環境,需要gcc線上安裝 如果是帶圖形介

ElasticSearch 使用入門——安裝啟動

ElasticSearch是一個基於Lucene的搜尋伺服器。它提供了一個分散式多使用者能力的全文搜尋引擎,基於RESTful web介面。Elasticsearch是用Java開發的,並作為Apache許可條款下的開放原始碼釋出,是第二最流行的企業搜

flink快速入門及採坑記錄

apache flink作為第四代mapreduce計算框架,已經得到越來越多的應用,這裡介紹如何快速入門,以及記錄一個記憶體錯誤的問題。1、安裝jdk2、下載flink,並解壓。wget https://mirrors.tuna.tsinghua.edu.cn/apache

esper安裝示例

1. esper的安裝: 在 http://esper.codehaus.org/esper/download/download.html 這裡下載esper壓縮包。解壓縮之後獲得資料夾 esper-4.x.x,在該資料夾根目錄有 esper-4.x.x.jar,這就是我們

docker入門安裝簡單使用

快速瞭解 (一) Docker 是什麼 官方給出的定義是:Docker是一個集開發,打包,執行應用於一體的開放式平臺。Docker可以用來快速交付應用。使用Docker,你可以將應用程式從你的基礎設施中分離出來,並將基礎設施當做一個管理平臺。Docker

官方Caffe-windows 配置示例執行

本文主要介紹官方給出的caffe-windows的配置及如何訓練mnist資料集,介紹的比較基礎,大神請繞道 1、環境:windows 10\CUDA7.5\cuDNN\VS2013 2、GPU計算環境準備(沒有GPU的同學可以跳過此步) (1)首先下載並安裝CUDA7.5

Akka入門安裝以及示例(Java)

一、安裝開發環境1.確保安裝的java環境是1.6或以上;2.設定JAVA_HOME環境變數(java SDK所安裝的目錄)    # export JAVA_HOME=..root of Java distribution..    # export PATH=$PATH

訊息中介軟體——RabbitMQ(五)快速入門生產者消費者,SpringBoot整合RabbitMQ!

前言 本章我們來一次快速入門RabbitMQ——生產者與消費者。需要構建一個生產端與消費端的模型。什麼意思呢?我們的生產者傳送一條訊息,投遞到RabbitMQ叢集也就是Broker。 我們的消費端進行監聽RabbitMQ,當發現佇列中有訊息後,就進行消費。 1. 環境準備 本次整合主要採用Spring

hadoop快速入門教程:hadoop安裝包下載監控參數說明

分布式 height tex region 集群 RoCE 發行版 store serve 前階段用了差不多兩周的時間把DKhadoop的運行環境搭建以及安裝的各個操作都介紹了一遍。關於DKhadoop安裝包下載也只是順帶說了一下,但好像大快搜索的服務器在更新,新的下載頁面

Python3入門筆記 —— windows安裝執行

 Python的設計哲學是“優雅”、“明確”、“簡單”。這也是我喜歡Python的理由之一 Python的安裝: 1.進入Python官方網站下載安裝包 點選導航欄的 Downloads 會自動識別你的windows系統  你會看到  Python3.6.2

Python3入門筆記(1) —— windows安裝執行

Python的設計哲學是“優雅”、“明確”、“簡單”。這也是我喜歡Python的理由之一 Python的安裝: 點選導航欄的 Downloads 會自動識別你的windows系統  你會看到  Python3.6.2 和 Python2.7.13   (32位系統)的

Spark快速入門指南 – Spark安裝基礎使用

Apache Spark 是一個新興的大資料處理通用引擎,提供了分散式的記憶體抽象。Spark 正如其名,最大的特點就是快(Lightning-fast),可比 Hadoop MapReduce 的處理速度快 100 倍。此外,Spark 提供了簡單易用的 API,幾行程式碼

Windows10下的docker安裝入門 (三) 建立自己的docker映象並且在容器中執行

Docker 是一個開源的應用容器引擎,讓開發者可以打包他們的應用以及依賴包到一個可移植的容器中,然後釋出到任何流行的 Linux 機器上,也可以實現虛擬化。容器是完全使用沙箱機制,相互之間不會有任何介面。 本教程主要分以下幾點內容:  ------------