第87課:Flume推送資料到SparkStreaming案例實戰和內幕原始碼解密--flume安裝篇
1、 下載flume 老師提供的包
2、 安裝 vi/etc/profile
exportFLUME_HOME=/usr/local/apache-flume-1.6.0-bin
exportPATH=.:$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin:$HIVE_HOME/bin:$FLUME_HOME/bin
3\配置檔案
[[email protected] conf]#pwd
/usr/local/apache-flume-1.6.0-bin/conf
[[email protected] conf]#
[[email protected] conf]#catflume-conf.properties
#agent1
agent1.sources=source1
agent1.sinks=sink1
agent1.channels=channel1
#urce1
agent1.sources.source1.type=spooldir
agent1.sources.source1.spoolDir=/usr/local/flume/tmp/TestDir
agent1.sources.source1.channels=channel1
agent1.sources.source1.fileHeader = false
agent1.sources.source1.interceptors = i1
agent1.sources.source1.interceptors.i1.type= timestamp
#sink1
agent1.sinks.sink1.type=hdfs
#agent1.sinks.sink1.hdfs.path=hdfs://master:9000/library/flume
agent1.sinks.sink1.hdfs.path=/usr/local/flume/tmp/SinkDir
agent1.sinks.sink1.hdfs.fileType=DataStream
agent1.sinks.sink1.hdfs.writeFormat=TEXT
agent1.sinks.sink1.hdfs.rollInterval=1
agent1.sinks.sink1.channel=channel1
agent1.sinks.sink1.hdfs.filePrefix=%Y-%m-%d
#channel1
agent1.channels.channel1.type=file
agent1.channels.channel1.checkpointDir=/usr/local/flume/tmp/checkpointDir
agent1.channels.channel1.dataDirs=/usr/local/flume/tmp/dataDirs
[[email protected] conf]#
flume-ng flume-ng.cmd flume-ng.ps1
[[email protected] bin]#./flume-ng agent -c . -f/usr/local/apache-flume-1.6.0-bin/conf/flume-conf.properties -n agent1 -Dflume.root.logger=INFO,console
bash: ./flume-ng: Permission denied
[[email protected] bin]#
[[email protected] bin]# ls -l
total 36
-rw-r--r--. 1 hadoop hadoop 12845 May 8 2015flume-ng
-rw-r--r--. 1 hadoop hadoop 936 May 8 2015 flume-ng.cmd
-rw-r--r--. 1 hadoop hadoop 14041 May 8 2015flume-ng.ps1
[[email protected] bin]# chmod u+x flume-ng
[[email protected] bin]# ls -;
ls: cannot access -: No such file ordirectory
[[email protected] bin]# ls -l
total 36
-rwxr--r--. 1 hadoop hadoop 12845 May 8 2015flume-ng
-rw-r--r--. 1 hadoop hadoop 936 May 8 2015 flume-ng.cmd
-rw-r--r--. 1 hadoop hadoop 14041 May 8 2015flume-ng.ps1
[[email protected] bin]# chmod u+X flume-ng.cmd
[[email protected] bin]# chmod u+X flume-ng.ps1
[[email protected] bin]# ls -l
total 36
-rwxr--r--. 1 hadoop hadoop 12845 May 8 2015flume-ng
-rw-r--r--. 1 hadoop hadoop 936 May 8 2015 flume-ng.cmd
-rw-r--r--. 1 hadoop hadoop 14041 May 8 2015flume-ng.ps1
[[email protected] bin]#
執行了
[[email protected] bin]# ./flume-ng agent -c . -f/usr/local/apache-flume-1.6.0-bin/conf/flume-conf.properties -n agent1 -Dflume.root.logger=INFO,console
新建檔案
[[email protected] hadoop]#cd /usr/local/flume/tmp/TestDir
[[email protected] TestDir]#ls
[[email protected] TestDir]#echo "hello IMF my flume data test 20160422 40w"> IMF_flume.log
[[email protected] TestDir]#ls
IMF_flume.log.COMPLETED
flume採集
16/04/22 10:29:30 INFO hdfs.BucketWriter: Renaming hdfs://master:9000/library/flume/2016-04-22.1461335365188.tmp to hdfs://master:9000/library/flume/2016-04-22.1461335365188
16/04/22 10:29:30 INFO hdfs.HDFSEventSink: Writer callback called.
16/04/22 10:29:53 INFO file.EventQueueBackingStoreFile: Start checkpoint for /usr/local/flume/tmp/checkpointDir/checkpoint, elements to sync = 1
16/04/22 10:29:53 INFO file.EventQueueBackingStoreFile: Updating checkpoint metadata: logWriteOrderID: 1461335244646, queueSize: 0, queueHead: 0
16/04/22 10:29:53 INFO file.Log: Updated checkpoint for file: /usr/local/flume/tmp/dataDirs/log-1 position: 226 logWriteOrderID: 14
16/04/22 10:27:25 INFO instrumentation.MonitoredCounterGroup: Component type: SOURCE, name: source1 started
16/04/22 10:29:21 INFO avro.ReliableSpoolingFileEventReader: Last read took us just up to a file boundary. Rolling to the next file, if there is one.
16/04/22 10:29:21 INFO avro.ReliableSpoolingFileEventReader: Preparing to move file /usr/local/flume/tmp/TestDir/IMF_flume.log to /usr/local/flume/tmp/TestDir/IMF_flume.log.COMPLETED
16/04/22 10:29:23 INFO file.EventQueueBackingStoreFile: Start checkpoint for /usr/local/flume/tmp/checkpointDir/checkpoint, elements to sync = 1
16/04/22 10:29:23 INFO file.EventQueueBackingStoreFile: Updating checkpoint metadata: logWriteOrderID: 1461335244643, queueSize: 1, queueHead: 999999
16/04/22 10:29:23 INFO file.Log: Updated checkpoint for file: /usr/local/flume/tmp/dataDirs/log-1 position: 149 logWriteOrderID: 1461335244643
16/04/22 10:29:25 INFO hdfs.HDFSDataStream: Serializer = TEXT, UseRawLocalFileSystem = false
16/04/22 10:29:25 INFO hdfs.BucketWriter: Creating hdfs://master:9000/library/flume/2016-04-22.1461335365188.tmp
16/04/22 10:29:25 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
16/04/22 10:29:30 INFO hdfs.BucketWriter: Closing hdfs://master:9000/library/flume/2016-04-22.1461335365188.tmp
16/04/22 10:29:30 INFO hdfs.BucketWriter: Renaming hdfs://master:9000/library/flume/2016-04-22.1461335365188.tmp to hdfs://master:9000/library/flume/2016-04-22.1461335365188
16/04/22 10:29:30 INFO hdfs.HDFSEventSink: Writer callback called.
16/04/22 10:29:53 INFO file.EventQueueBackingStoreFile: Start checkpoint for /usr/local/flume/tmp/checkpointDir/checkpoint, elements to sync = 1
16/04/22 10:29:53 INFO file.EventQueueBackingStoreFile: Updating checkpoint metadata: logWriteOrderID: 1461335244646, queueSize: 0, queueHead: 0
16/04/22 10:29:53 INFO file.Log: Updated checkpoint for file: /usr/local/flume/tmp/dataDirs/log-1 position: 226 logWriteOrderID: 1461335244646
hdfs檢視結果
[[email protected] TestDir]#hadoop dfs -cat/library/flume/2016-04-22.1461335365188
DEPRECATED: Use of this script to executehdfs command is deprecated.
Instead use the hdfs command for it.
SLF4J: Failed to load class"org.slf4j.impl.StaticLoggerBinder".
SLF4J: Defaulting to no-operation (NOP)logger implementation
SLF4J: Seehttp://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
16/04/22 10:30:50 WARN util.NativeCodeLoader:Unable to load native-hadoop library for your platform... using builtin-javaclasses where applicable
hello IMF my flume data test 20160422 40w
[[email protected] TestDir]#
=======================================================================
huawei test
flume
[email protected]:/usr/local/apache-flume-1.6.0-bin/conf# hadoop dfs -mkdir hdfs://master:9000/library/flume
DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.
export FLUME_HOME=/usr/local/apache-flume-1.6.0-bin
export PATH=.:$PATH:$JAVA_HOME/bin:$SCALA_HOME/bin:$HADOOP_HOME/bin:$SPARK_HOME/bin:$HIVE_HOME/bin:$FLUME_HOME/bin
[email protected]:/usr/local/apache-flume-1.6.0-bin# source /etc/profile
[email protected]:/usr/local/apache-flume-1.6.0-bin/bin# chmod u+x flume-ng
[email protected]:/usr/local/apache-flume-1.6.0-bin# flume-ng version
Flume 1.6.0
Source code repository: https://git-wip-us.apache.org/repos/asf/flume.git
Revision: 2561a23240a71ba20bf288c7c2cda88f443c2080
Compiled by hshreedharan on Mon May 11 11:15:44 PDT 2015
From source with checksum b29e416802ce9ece3269d34233baf43f
[email protected]:/usr/local/apache-flume-1.6.0-bin#
./flume-ng agent -c . -f/usr/local/apache-flume-1.6.0-bin/conf/flume-conf.properties -n agent1 -Dflume.root.logger=INFO,console
vi IMFFlume.sh
./flume-ng agent -c . -f/usr/local/apache-flume-1.6.0-bin/conf/flume-conf.properties -n agent1 -Dflume.root.logger=INFO,console
/usr/local/flume/tmp/TestDir
[email protected]:/usr/local/setup_scripts# cat IMFFlume.sh
/usr/local/apache-flume-1.6.0-bin/bin/flume-ng agent -c . -f/usr/local/apache-flume-1.6.0-bin/conf/flume-conf.properties -n agent1 -Dflume.root.logger=INFO,console
[email protected]:/usr/local/setup_scripts# IMFFlume.sh
cp /usr/local/apache-flume-1.6.0-bin/README /usr/local/flume/tmp/TestDir
[email protected]:/usr/local/apache-flume-1.6.0-bin/conf# cat flume-conf.properties
agent1琛ㄧず浠g悊鍚嶇О
agent1.sources=source1
agent1.sinks=sink1
agent1.channels=channel1
#閰嶇疆source1
agent1.sources.source1.type=spooldir
agent1.sources.source1.spoolDir=/usr/local/flume/tmp/TestDir
agent1.sources.source1.channels=channel1
agent1.sources.source1.fileHeader = false
agent1.sources.source1.interceptors = i1
agent1.sources.source1.interceptors.i1.type = timestamp
#閰嶇疆sink1
agent1.sinks.sink1.type=hdfs
agent1.sinks.sink1.hdfs.path=hdfs://master:9000/library/flume
agent1.sinks.sink1.hdfs.fileType=DataStream
agent1.sinks.sink1.hdfs.writeFormat=TEXT
agent1.sinks.sink1.hdfs.rollInterval=1
agent1.sinks.sink1.channel=channel1
agent1.sinks.sink1.hdfs.filePrefix=%Y-%m-%d
#閰嶇疆channel1
agent1.channels.channel1.type=file
agent1.channels.channel1.checkpointDir=/usr/local/flume/tmp/checkpointDir
agent1.channels.channel1.dataDirs=/usr/local/flume/tmp/dataDirs
[email protected]:/usr/local/apache-flume-1.6.0-bin/conf# hadoop dfs -mkidr hdfs://master:9000/library/flume
DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.
-mkidr: Unknown command
[email protected]:/usr/local/apache-flume-1.6.0-bin/conf# hadoop dfs -mkdir hdfs://master:9000/library/flume
DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.
[email protected]:/usr/local/apache-flume-1.6.0-bin/conf# mkidr /usr/local/flume/tmp/TestDir
相關推薦
第87課:Flume推送資料到SparkStreaming案例實戰和內幕原始碼解密--flume安裝篇
1、 下載flume 老師提供的包 2、 安裝 vi/etc/profile exportFLUME_HOME=/usr/local/apache-flume-1.6.0-bin exportPATH=.:$PATH:$JAVA_HOME/bin:$HADOOP
大資料IMF傳奇行動絕密課程第87課:Flume推送資料到Spark Streaming案例實戰和內幕原始碼解密
Flume推送資料到Spark Streaming案例實戰和內幕原始碼解密 1、Flume on HDFS案例回顧 2、Flume推送資料到Spark Streaming實戰 3、原理繪圖剖析 一、配置.bashrc vi ~/.bashrc
第91課:SparkStreaming基於Kafka Direct案例實戰和內幕原始碼解密 java.lang.ClassNotFoundException 踩坑解決問題詳細內幕版本
第91課:SparkStreaming基於Kafka Direct案例實戰和內幕原始碼解密 /* * *王家林老師授課http://weibo.com/ilovepains */ 每天晚上20:00YY頻道現場授課頻道68917580 1、作業內容:SparkS
Spark Streaming從Flume Poll資料案例實戰和內幕原始碼解密
本博文內容主要包括以下幾點內容: 1、Spark Streaming on Polling from Flume實戰 2、Spark Streaming on Polling from Flume原始碼 一、推模式(Flume push SparkStre
第80課:Spark SQL網站搜尋綜合案例實戰
內容: 1.案例分析 2.案例實戰 一、案例分析 專案:以京東找出搜尋平臺排名的產品,The hottest 元資料:date,u
C#程式設計基礎第六課:C#中三元運算子的初級使用和巢狀
知識點:三元運算子的使用。 1、三元運算子 三元運算子的初級使用: 符號: ?: 舉例:int c=bool ? a : b 當bool=true,c=表示式a,當bool=false,c=表示式b。 三元運算子?:是 if~else 語句的簡寫形式 書寫格式
谷歌全球醫療廣告調查:AI推送,移動端投放和尺度加大
文|曾響鈴 來源|科技向令說(xiangling0815) 谷歌,這家全球最大搜索巨頭,越來越表現出它真實的樣子。 尤其是商業變現上,廣告業務一直都是谷歌重要的“現金流”。而2015年又是一個新的時間點,彼時,谷歌移動端的搜尋量超過了PC端,谷歌廣告業務的主陣地
C語言第56課:實參與形參隨堂實戰
·第56課:實參與形參隨堂實戰 ·例子:計算圖形的面積 #include<stdio.h> #include<stdlib.h> #include<math.h> /* 圓:s = PI * r * r
機器學習筆記 第1課:機器學習中的資料
資料在機器學習中起著重要的作用。 在談論資料時,理解和使用正確的術語非常重要。 你如何看待資料?想想電子表格吧,有列、行和單元格。 從統計視角而言,機器學習的任務是在假設函式( f )的上下文中構建資料。這些假設函式由機器學習演算法通過學習建立。給定一些輸入變數( Input ),該函式回答
每日新聞:華為釋出5大AI戰略;支付寶建議蘋果使用者調低免密支付額度;胡潤百富榜:馬雲居首馬化騰第三;微軟重新推送新版Win10...
關注中國軟體網 最新鮮的企業級乾貨聚集地 今日熱點 微軟修補資料誤刪漏洞 重新向測試者推送新版Win 10 微軟重新推送Windows 10 October 2018 Update。之前微軟推送的更新存在資料誤刪問題,導致系統被迫下線。微軟解釋說,公司只收到為數不多的幾
人工智慧第三課:資料科學中的Python
我用了兩天左右的時間完成了這一門課《Introduction to Python for Data Science》的學習,之前對Python有一些基礎,所以在語言層面還是比較順利的,這門課程的最大收穫是讓我看到了在資料科學中Python的真正威力(也理解了為什麼Python這麼流行),同時本次課程的互動式練
.NetCore實踐篇:使用zipkin4net推送資料到分散式監控zipkin(2)
前言《牧神記》有一句話說的好,破心中神。當不再對分散式,微服務,CLR畏懼迷茫的時候,你就破了心中神。zipkin複習zipkin作用全鏈路追蹤工具(根據依賴關係)檢視每個介面、每個service的執行速度(定位問題發生點或者尋找效能瓶頸)zipkin工作原理創造一些追蹤識別符號(tracingId,span
C#程式設計基礎第十課:C#中的常用資料型別轉換:隱式轉換、顯式轉換、Convert類轉換等
知識點:型別轉換、數值型別間的轉換、隱式型別轉換、顯式型別轉換、數值型別和string型別的轉換、Convert類轉換。 1、資料型別型別轉換 理解:從根本上說是型別鑄造,或者說是把資料從一種型別轉換為另一種型別。C#有多種資料型別,在使用各種型別的資料時,有時候需要將一種型別的資料轉換
Spark商業案例與效能調優實戰100課》第3課:商業案例之通過RDD分析大資料電影點評系各種型別的最喜愛電影TopN及效能優化技巧
Spark商業案例與效能調優實戰100課》第3課:商業案例之通過RDD分析大資料電影點評系各種型別的最喜愛電影TopN及效能優化技 原始碼 package com.dt.spark.core
大資料Spark “蘑菇雲”行動補充內容第70課: Spark SQL程式碼實戰和效能調優 4個spark sql調優技巧有用!!!!
大資料Spark “蘑菇雲”行動補充內容第70課: Spark SQL程式碼實戰和效能調優 dataframe: Row是沒有型別的,因為Row中的所有成員都被看著Object型別!!!untype
大資料IMF傳奇行動絕密課程第42課:Checkpoint內幕解密
Broadcast內幕解密 1、Broadcast徹底解析 2、Broadcast原始碼徹底詳解 3、Broadcast最佳實踐 一、Broadcast徹底解析 1、Broadcast就是將資料從一個節點發送到其它的節點上。例如Driver上有一張表,
大資料IMF傳奇行動絕密課程第54課:Spark效能優化第十季之Spark統一記憶體管理
Spark效能優化第十季之Spark統一記憶體管理 1、傳統的Spark記憶體管理的問題 2、Spark統一記憶體管理 3、展望 Spark記憶體分為三部分:Execution、Sotrage、Other; Shuffle,當記憶體不夠的時候下,磁碟I
大資料IMF傳奇行動絕密課程第63課:Spark SQL下Parquet內幕深度解密
Spark SQL下Parquet內幕深度解密 1、Spark SQL下的Parquet意義再思考 2、Spark SQL下的Parquet內幕揭祕 一、Spark SQL下的Parquet意義再思考 1、如果說HDFS是大資料時代分散式檔案系統儲存的事
大資料IMF傳奇行動絕密課程第64課:Spark SQL下Parquet的資料切分和壓縮內幕詳解
Spark SQL下Parquet的資料切分和壓縮內幕詳解 1、Spark SQL下的Parquet資料切分 2、Spark SQL下的Parquet資料壓縮 parquetBlocksize總體上講是壓縮後的大小 private static fina
【Linux探索之旅】第一部分第三課:測試並安裝Ubuntu
u盤 nco 過程 sans ubunt windows u盤啟動盤 系統 .com 內容簡單介紹 1、第一部分第三課:測試並安裝Ubuntu 2、第一部分第四課預告:磁盤分區 測試並安裝Ubuntu 大家好,經過前兩個比較偏理論(是否