1. 程式人生 > >flume:如何使用flume將檔案存到hdfs

flume:如何使用flume將檔案存到hdfs

一、如何使用flume將檔案存到hdfs

簡單例子:

#set name

agent1.sources = source1

agent1.channels = channel1

agent1.sinks = sink1

#link sources and sinks

agent1.sources.source1.channels = channel1

agent1.sinks.sink1.channel = channel1

#set sources

agent1.sources.source1.type = spooldir

agent1.sources.source1.spoolDir = 監控路徑

#set sinks 、necessary set in this example

agent1.sinks.sink1.type = hdfs

agent1.sinks.sink1.hdfs.path = 儲存到hdfs的路徑

#not necessary set in this example

agent1.sinks.sink1.hdfs.filePrefix = events

agent1.sinks.sink1.hdfs.fileSuffix = .log

#下面這個屬性預設為空

agent1.sinks.sink1.inUsePrefix = _

agent1.sinks.sink1.hdfs.fileType = DataStream

#set channels

agent1.channels.channel1.type = file 

啟動這個flume代理,可以將監控路徑下的檔案通過channel傳輸到hdfs.path屬性的路徑中。

上面這個例子使用了一些預設配置。包括在超過了給定的開啟時間(預設30s)之後,會將開啟的檔案通過channel傳輸到sink。這裡會存在一個問題-》可能生成的內容太少了,每次都往hdfs中傳輸大量的小檔案,降低了mapreduce效率。

解決方式:

    第一個:

        hdfs.rollInterval屬性設定開啟時間,使時間足夠長,獲取足夠多的內容。

    第二個:

        hdfs.rollSize屬性設定檔案大小,當檔案達到一定的大小的時候才傳輸(預設1024個位元組)

    第三個:

        hdfs.rollCount屬性設定接受的事件數目,當檔案寫滿了給定數量的事件之後才傳輸。

相關推薦

flume如何使用flume檔案hdfs

一、如何使用flume將檔案存到hdfs簡單例子:#set name agent1.sources = source1 agent1.channels = channel1 agent1.sinks = sink1 #link sources and sinks a

HDFS——如何檔案HDFS複製到本地

下面兩個命令是把檔案從HDFS上下載到本地的命令。 get 使用方法:Hadoop fs -get [-ignorecrc] [-crc] 複製檔案到本地檔案系統。可用-ignorecrc選項複製CRC校驗失敗的檔案。使用-crc選項複製檔案以及CRC資訊。 示例: hadoop

使用get指令檔案HDFS複製到本地

get 使用方法:Hadoop fs -get [-ignorecrc] [-crc] <src> <localdst> 複製檔案到本地檔案系統。可用-ignorecrc選項複製CRC校驗失敗的檔案。使用-crc選項複製檔案以及CRC資訊。 示例:

linux程式檔案到nfs上可能引起程式異常

在3531上試驗,嘗試過fwrite(s_stDirectCtx.stSnapFrmStrm.pcStrmData, 1, s_stDirectCtx.stSnapFrmStrm.u32StrmLen, pfpSnapFile)與fwrite(s_stDirectCtx.s

flumeflume分割槽和攔截器

一、分割槽:    將查詢限制在某個分割槽內。    將資料儲存的方式更改為分割槽儲存方式:        對hdfs.path進行設定。        舉個例子:            agent1.sinks.sink1.hdfs.path = /usr/logs/yea

Hadoop硬實戰之一使用flume系統日誌檔案匯入HDFS

問題來源:將所有生產系統產生的日誌檔案匯入到HDFS 解決方案:使用資料收集系統Flume將Linux日誌檔案匯入HDFS,將講解如何在分散式環境中配置Flume,並檢驗Flume的可靠性模式,本文以配置單機為例進行說明。 實施步驟: 1.在偽分散式模型中執行Flume.

flume實現監控檔案,並檔案內容傳入kafka的,kafka在控制檯實現消費

在flume的配置裡建一個檔案flume-kafka.conf 生產者產生的資料放在/home/hadoop/c.txt中 topic消費c.txt中的檔案 a1.sources = s1

大資料實時日誌收集框架Flume案例之抽取日誌檔案HDFS

上節介紹了Flume的作用以及如何使用,本文主要通過一個簡單的案例來更好地運用Flume框架。在實際開發中,我們有時需要實時抽取一些資料夾下的檔案來分析,比如今天的日誌檔案需要抽取出來做分析。這時,如何自動實時的抽取每天的日誌檔案呢?我們可以使用Flume來完成

Flume-ng資料插入hdfs與HBase-0.96.0

問題導讀:1.如何配置分散式flume2.master與node之間該如何配置,有什麼異同?3.啟動命令是什麼?4.flume把資料插入hbase,該如何配置?一、Flume-ng配置插入hdfs1)簡介 Flume是一個分散式、可靠、和高可用的海量日誌聚合的系統,支援在系統中定製各類資料傳送方,用於收集資

Flume之監聽目錄變化並上傳檔案HDFS

vim /usr/local/flume/conf/exex-hdfs.conf a1.sources = r1         a1.sinks = k1         a1.channels = c1     # Describe/configure the sour

flume上傳檔案hdfs

在第一篇文章中我們是將log4j的日誌輸出到了agent的日誌檔案當中。配置檔案如下: tier1.sources=source1  tier1.channels=channel1  tier1.sinks=sink1  tier1.sources.source1.ty

flume讀取log日誌檔案儲存到HDFS

配置flume檔案 D:\Soft\apache-flume-1.8.0-bin\conf  將 flume-conf.properties.template 重新命名為  hdfs.properties # 組裝 agent a1.sources = s1 a

spark讀hdfs檔案實現wordcount並結果hdfs

package iie.udps.example.operator.spark; import scala.Tuple2; import org.apache.spark.SparkConf; import org.apache.spark.api.java.Jav

多個Flume合併一個channel上傳檔案Hdfs

需要交流請進群-- 494831900 --我和群中朋友會及時回答 需要交流請進群-- 494831900 在tohdfs.conf 中配置如下 ----------------------------------------------------------------

作業二優化購物車用戶入口1.商品的信息到文件中;2.已經購買的商品、余額記錄到文件中。商家入口1.可以添加商品;2.可以修改商品的價格

car brush 薪水 blog and not else iphone client #Author:AXIN #Date:2017/5/22 12:04 #優化版的購物車 #用戶入口: #1.商品的信息存到文件裏 #2.已購商品,余額記錄 #商家入口: #1.可以添

Flume采集Nginx日誌到HDFS

write 1.5 utc 日誌 onf 需要 pat sel source 下載apache-flume-1.7.0-bin.tar.gz,用 tar -zxvf 解壓,在/etc/profile文件中增加設置: export FLUME_HOME=/o

Flume實時監控目錄sink到hdfs

imp spa bat 添加 flume-ng mat header star txt 目標:Flume實時監控目錄sink到hdfs,再用sparkStreaming監控hdfs的這個目錄,對數據進行計算 1、flume的配置,配置spoolDirSource_hdfsS

關於從kafka采集數據到flume,然後落盤到hdfs上生成的一堆小文件的總結

src com 保存 pic width 配置 png hdfs alt 采集數據到kafka,然後再通過flume將數據保存到hdfs上面。在這個過程當中出現了一堆的問題。 (1)一直是提醒說必須指定topic,然後發現我kafka用的是0.9.0.1,然而我的flume

Atitit 分散式檔案系統 hdfs nfs fastfs 目錄 1. 分散式檔案系統 1 2. 什麼是FastDFS 1 2.1. FastDFS特性 1 2.1.1. fastdfs是否可在

Atitit 分散式檔案系統 hdfs nfs fastfs   目錄 1. 分散式檔案系統 1 2. 什麼是FastDFS 1 2.1. FastDFS特性: 1 2.1.1. fastdfs是否可在windows系統下安裝?可以的話,哪位可以..._百度知道 2