1. 程式人生 > >Hadoop日誌存放路徑詳解

Hadoop日誌存放路徑詳解

  的日誌有很多種,很多初學者往往遇到錯而不知道怎麼辦,其實這時候就應該去看看日誌裡面的輸出,這樣往往可以定位到錯誤。的日誌大致可以分為兩類:(1)、Hadoop系統服務輸出的日誌;(2)、Mapreduce程式輸出來的日誌。這兩類的日誌存放的路徑是不一樣的。本文基於Hadoop 2.x版本進行說明的,其中有些地方在Hadoop 1.x中是沒有的,請周知。
  

一、Hadoop系統服務輸出的日誌

  諸如NameNode、DataNode、ResourceManage等系統自帶的服務輸出來的日誌預設是存放在${HADOOP_HOME}/logs目錄下。比如resourcemanager的輸出日誌為yarn-${USER}-resourcemanager-${hostname}.log,其中${USER}s是指啟動resourcemanager程序的使用者,${hostname}是resourcemanager程序所在機器的hostname;當日志到達一定的大小(可以在${HADOOP_HOME}/etc/hadoop/log4j.properties檔案中配置)將會被切割出一個新的檔案,切割出來的日誌檔名類似yarn-${USER}-resourcemanager-${hostname}.log.數字的,後面的數字越大,代表日誌越舊。在預設情況下,只儲存前20個日誌檔案,比如下面:

01 -rw-r--r-- 1 wyp wyp 124M Mar 14 17:01 yarn-wyp-resourcemanager-master.log
02 -rw-r--r-- 1 wyp wyp 257M Mar  9 10:02 yarn-wyp-resourcemanager-master.log.1
03 -rw-r--r-- 1 wyp wyp 257M Feb  4 09:05 yarn-wyp-resourcemanager-master.log.10
04 -rw-r--r-- 1 wyp wyp 257M Feb  1 17:04 yarn-wyp-resourcemanager-master.log.11
05 -rw-r--r-- 1 wyp wyp 257M Jan 30 01:04 yarn-wyp-resourcemanager-master.log.12
06 -rw-r--r-- 1 wyp wyp 257M Jan 26 04:01 yarn-wyp-resourcemanager-master.log.
13
07 -rw-r--r-- 1 wyp wyp 257M Jan 22 16:12 yarn-wyp-resourcemanager-master.log.

相關推薦

Hadoop日誌存放路徑

  的日誌有很多種,很多初學者往往遇到錯而不知道怎麼辦,其實這時候就應該去看看日誌裡面的輸出,這樣往往可以定位到錯誤。的日誌大致可以分為兩類:(1)、Hadoop系統服務輸出的日誌;(2)、Mapreduce程式輸出來的日誌。這兩類的日誌存放的路徑是不一樣的。本文基於

008-Hadoop Hive sql語法3-DML 操作:元數據存儲

pan 查詢 寫入 所有 not insert語句 int 寫入文件 文件系統 一、概述 hive不支持用insert語句一條一條的進行插入操作,也不支持update操作。數據是以load的方式加載到建立好的表中。數據一旦導入就不可以修改。 DML包括:INSERT插入

hadoop生態圈的

hadoop生態圈 hadoop學習線路 hadoop件組 hadoop 學習和使用hadoop有一年了,這裏主要分享一下對hadoop整體上的理解,分門別類的介紹一下相關組件,最後提供了建議的學習路線,希望對hadoop的初學者有參考作用。 1. Hadoop核心件組有哪些? 廣義

017-Hadoop Hive sql語法7-去重排序、數據傾斜

col 去重排序 sel cluster 可能 更多 分發 指定 clust 一、數據去重排序 1.1、去重   distinct與group by   盡量避免使用distinct進行排重,特別是大表操作,用group by代替   -- 不建議 selec

016-Hadoop Hive sql語法6-job輸入輸出優化、數據剪裁、減少job數、動態分區

分享 hive table 取數 nbsp put union 正在 style 一、job輸入輸出優化 善用muti-insert、union all,不同表的union all相當於multiple inputs,同一個表的union all,相當map一次輸出多條

Linux /var/log下的各種日誌文件

awk http 不同 打印 解析 系統監控 ssa 登錄 sage 1)/var/log/secure:記錄登錄系統存取數據的文件;例如:pop3,ssh,telnet,ftp等都會記錄在此.2)/var/log/wtmp:記錄登錄這的信息記錄,被編碼過,所以必須以las

nginx的日誌設置

agen pass 設置 保持 bar config 字節 參數 功能 nginx的日誌設置 access_log access_log是服務器記錄了哪些用戶,哪些頁面以及用戶瀏覽器、ip和其他的訪問信息;是一種非常詳細的記錄信息;如果我們不關心誰訪問了我們,可以關閉;

mysql二進制日誌文件

指定 ria 二進制 mage 獲取 直接 key 刪除一個文件 ID 一、mysql的二進制日誌文件 二、查看二進制日誌文件信息: 1、查看二進制日誌文件是否開啟:show variables like ‘log_bin‘; 2、查看所有二進制日誌

《Java項目中classpath路徑

包含 文件夾 獲取 目的 nbsp china RF 文件的 發現 項目裏用到了classpath路徑來引用文件,那麽classpath指的是哪裏呢 我首先把上面的applicationContext.xml文件放在了src目錄下發現可以。 那麽classpath

logback日誌模板與

alua ogg back pad 修飾 可選 最小寬度 {0} method <pattern>的轉換符說明: (這部分引用自http://aub.iteye.com/blog/1103685)轉換符 作用 c {length } lo {len

Nginx日誌格式log_format

輸入 str erer 日誌 www onf 發送 1.2 url跳轉 PS:Nginx日誌相關指令主要有兩條,一條是log_format,用來設置日誌格式,另外一條是access_log,用來指定日誌文件的存放路徑、類型、緩存大小等,一般放在Nginx的默認主配置文件

log4net日誌系統使用

cati parameter 文本文件 同時存在 identity debug obj play hashtable 1、概述 log4net是.Net下一個非常優秀的開源日誌記錄組件。log4net記錄日誌的功能非常強大。它可以將日誌分不同的等級,以不同的格式,輸出到不同

Hadoop偽分佈安裝+MapReduce執行原理+基於MapReduce的KNN演算法實現

本篇部落格將圍繞Hadoop偽分佈安裝+MapReduce執行原理+基於MapReduce的KNN演算法實現這三個方面進行敘述。 (一)Hadoop偽分佈安裝 1、簡述Hadoop的安裝模式中–偽分佈模式與叢集模式的區別與聯絡. Hadoop的安裝方式有三種:本地模式,偽分佈模式

HDFS(hadoop distributed File System)

  HDFS(hadoop distributed File System)分散式檔案系統     特點:高容錯性(多個文字副本儲存),價格低,高吞吐量。     常見的系統  gfs,HDFS、Lustre 、Cep

/var/log目錄下的20個Linux日誌檔案功能

原文連結 以下介紹的是20個位於/var/log/ 目錄之下的日誌檔案。其中一些只有特定版本採用,如dpkg.log只能在基於Debian的系統中看到。 /var/log/messages — 包括整體系統資訊,其中也包含系統啟動期間的日誌。此外,mail,cron,daem

hadoop--02(hdfs

1.HDFS的概念和特性   首先,它是一個檔案系統,用於儲存檔案,通過統一的名稱空間——目錄樹來定位檔案其次,它是分散式的,由很多伺服器聯合起來實現其功能,叢集中的伺服器有各自的角色; 重要特性如下: HDFS中的檔案在物理上是分塊儲存(block),塊的大小

Hadoop mapreduce 入門示例

wordcout統計詞頻mapreduce程式設計 import java.io.IOException; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.

Hadoop Hive sql語法

Hive 是基於Hadoop 構建的一套資料倉庫分析系統,它提供了豐富的SQL查詢方式來分析儲存在Hadoop 分散式檔案系統中的資料,可以將結構化的資料檔案對映為一張資料庫表,並提供完整的SQL查詢功能,可以將SQL語句轉換為MapReduce任務進行執行,通過自己的SQL

mysql - 慢查詢日誌、explain

一 開啟慢查詢日誌 show variables like 'slow_query_log'; show variables like 'slow_query%'; show variables like 'long_query_time'; set global slow

大資料基礎課之Hadoop MapReduce執行過程

述一下mapreduce的流程(shuffle的sort,partitions,group) 首先是 Mapreduce經過SplitInput 輸入分片 決定map的個數在用Record記錄 key value。然後分為以下三個流程: Map: 輸入 key