1. 程式人生 > >Ganglia監控HDFS和HBase指標說明

Ganglia監控HDFS和HBase指標說明

HDFS相關

datanode相關

引數 解釋
dfs.datanode.blockChecksumOp_avg_time 塊校驗平均時間
dfs.datanode.blockChecksumOp_num_ops 塊檢驗次數
dfs.datanode.blockReports_avg_time 塊報告平均時間
dfs.datanode.blockReports_num_ops 塊報告次數
dfs.datanode.block_verification_failures 塊驗證失敗次數
dfs.datanode.blocks_read 從硬碟讀塊總次數
dfs.datanode.blocks_removed 刪除塊數目
dfs.datanode.blocks_replicated 塊複製總次數
dfs.datanode.blocks_verified 塊驗證總次數
dfs.datanode.blocks_written 向硬碟寫塊總次數
dfs.datanode.bytes_read 讀出總位元組包含crc驗證檔案位元組數
dfs.datanode.bytes_written 寫入總位元組數(在寫入每個packet時計數)
dfs.datanode.copyBlockOp_avg_time 複製塊平均時間
dfs.datanode.copyBlockOp_num_ops 複製塊次數
dfs.datanode.heartBeats_avg_time 向namenode彙報平均時間
dfs.datanode.heartBeats_num_ops 向namenode彙報總次數
dfs.datanode.readBlockOp_avg_time 讀塊平均時間(單位ms)
dfs.datanode.readBlockOp_num_ops 讀塊總次數
dfs.datanode.reads_from_local_client 從本地讀入塊次數
dfs.datanode.reads_from_remote_client 從遠端讀入塊次數
dfs.datanode.replaceBlockOp_avg_time 替換塊平均時間(負載均衡策略)
dfs.datanode.replaceBlockOp_num_ops 替換塊次數(負載均衡策略)
dfs.datanode.volumeFailures notfound
dfs.datanode.writeBlockOp_avg_time 寫塊平均時間
dfs.datanode.writeBlockOp_num_ops 寫塊總次數一般和dfs.datanode.blocks_written
dfs.datanode.writes_from_local_client 寫本地次數
dfs.datanode.writes_from_remote_client 寫遠端次數

JVM相關

引數 解釋
jvm.metrics.gcCount gc總次數
jvm.metrics.gcTimeMillis gc總耗時(ms)
jvm.metrics.logErro jvm Error次數
jvm.metrics.logFatal jvm出現fatal次數
jvm.metrics.logInfo jvm 出現Info的次數
jvm.metrics.logWarn jvm出現warn的次數
jvm.metrics.maxMemoryM jvm試圖使用最大記憶體(M),如果沒有限制返回Long.MAX_VALUE
jvm.metrics.memHeapCommittedM jvm提交堆記憶體大小
jvm.metrics.memHeapUsedM jvm使用堆記憶體大小
jvm.metrics.memNonHeapCommittedM jvm非堆記憶體已提交大小
jvm.metrics.memNonHeapUsedM jvm非堆記憶體已使用大小
jvm.metrics.threadsBlocked 正在阻塞等待監視器鎖的執行緒數目
jvm.metrics.threadsNew 尚未啟動的執行緒數目
jvm.metrics.threadsRunnable 正在執行狀態的執行緒數目
jvm.metrics.threadsTerminated 已退出執行緒數目
jvm.metrics.threadsTimedWaiting 等待另一個執行緒執行取決於指定等待時間的操作的執行緒數目
jvm.metrics.threadsWaiting 無限期地等待另一個執行緒來執行某一特定操作的執行緒數目

RPC相關

引數 解釋
rpc.metrics.NumOpenConnections number of open connections rpc連線開啟的數目
rpc.metrics.ReceivedBytes number of bytes received rpc收到的位元組數
rpc.metrics.RpcProcessingTime_avg_time Average time for RPC Operations in last interval rpc在最近的互動中平均操作時間
rpc.metrics.RpcProcessingTime_num_ops rpc在最近的互動中連線數目
rpc.metrics.RpcQueueTime_avg_time rpc在互動中平均等待時間
rpc.metrics.RpcQueueTime_num_ops rpc queue中完成的rpc運算元目
rpc.metrics.SentBytes number of bytes sent rpc傳送的資料位元組
rpc.metrics.callQueueLen length of the rpc queue rpc 佇列長度
rpc.metrics.rpcAuthenticationFailures number of failed authentications rpc 驗證失敗次數
rpc.metrics.rpcAuthenticationSuccesses number of successful authentications 驗證成功數
rpc.metrics.rpcAuthorizationFailures number of failed authorizations 授權失敗次數
rpc.metrics.rpcAuthorizationSuccesses number of successful authorizations 成功次數

MapReduce相關

引數 解釋
mapred.shuffleInput.shuffle_failed_fetches 從map輸出中取資料過程中獲取失敗次數
mapred.shuffleInput.shuffle_fetchers_busy_percent 在獲取map輸出過程中並行獲取執行緒忙碌佔總並行獲取執行緒百分比
mapred.shuffleInput.shuffle_input_bytes shuffle過程中讀入資料位元組
mapred.shuffleInput.shuffle_success_fetches 從map輸出中取資料過程中獲取成功次數
mapred.shuffleOutput.shuffle_failed_outputs 向reduce傳送map輸出失敗次數
mapred.shuffleOutput.shuffle_handler_busy_percent 向reduce傳送map輸出中server執行緒忙碌佔總工作執行緒(在tasktracker.http.threads中配置)百分比。
mapred.shuffleOutput.shuffle_output_bytes shuffle過程中輸出資料位元組
mapred.shuffleOutput.shuffle_success_outputs 向reduce成功
mapred.tasktracker.mapTaskSlots 設定map槽數
mapred.tasktracker.maps_running 正在執行的map數
mapred.tasktracker.reduceTaskSlots 設定reduce槽數
mapred.tasktracker.reduces_running 正在執行的reduce數
mapred.tasktracker.tasks_completed 完成任務數
mapred.tasktracker.tasks_failed_ping 因tasktracker與task互動失敗導致的失敗的task數目
mapred.tasktracker.tasks_failed_timeout 因task未在mapred.task.timeout配置的(預設10分鐘)時間內彙報進度而超時kill的task數目

rpc detailed 相關

引數 解釋
rpc.detailed-metrics.canCommit_avg_time rpc詢問是否提交任務平均時間
rpc.detailed-metrics.canCommit_num_ops rpc詢問是否提交任務次數
rpc.detailed-metrics.commitPending_avg_time rpc報告任務提交完成,但是該提交仍然處於pending狀態的平均時間
rpc.detailed-metrics.commitPending_num_ops rpc報告任務提交完成,但是該提交仍然處於pending狀態的次數
rpc.detailed-metrics.done_avg_time rpc報告任務成功完成的平均時間
rpc.detailed-metrics.done_num_ops rpc報告任務成功完成的次數
rpc.detailed-metrics.fatalError_avg_time rpc報告任務出現fatalerror的平均時間
rpc.detailed-metrics.fatalError_num_ops rpc報告任務出現fatalerror的次數
rpc.detailed-metrics.getBlockInfo_avg_time 從指定datanode獲取block的平均時間
rpc.detailed-metrics.getBlockInfo_num_ops 從指定datanode獲取block的次數
rpc.detailed-metrics.getMapCompletionEvents_avg_time reduce獲取已經完成的map輸出地址事件的平均時間
rpc.detailed-metrics.getMapCompletionEvents_num_ops reduce獲取已經完成的map輸出地址事件的次數
rpc.detailed-metrics.getProtocolVersion_avg_time 獲取rpc協議版本資訊的平均時間
rpc.detailed-metrics.getProtocolVersion_num_ops 獲取rpc協議版本資訊的次數
rpc.detailed-metrics.getTask_avg_time 當子程序啟動後,獲取jvmtask的平均時間
rpc.detailed-metrics.getTask_num_ops 當子程序啟動後,獲取jvmtask的次數
rpc.detailed-metrics.ping_avg_time 子程序週期性的檢測父程序是否還存活的平均時間
rpc.detailed-metrics.ping_num_ops 子程序週期性的檢測父程序是否還存活的次數
rpc.detailed-metrics.recoverBlock_avg_time 為指定的block開始恢復標記生成的平均時間
rpc.detailed-metrics.recoverBlock_num_ops 為指定的block開始恢復標記生成的次數
rpc.detailed-metrics.reportDiagnosticInfo_avg_time 向父程序報告任務錯誤訊息的平均時間,該操作應儘可能少,這些訊息會在jobtracker中儲存
rpc.detailed-metrics.reportDiagnosticInfo_num_ops 向父程序報告任務錯誤訊息的次數
rpc.detailed-metrics.startBlockRecovery_avg_time 開始恢復block的平均時間
rpc.detailed-metrics.startBlockRecovery_num_ops 開始恢復block的次數
rpc.detailed-metrics.statusUpdate_avg_time 彙報子程序進度給父程序的平均時間
rpc.detailed-metrics.statusUpdate_num_ops 彙報子程序進度給父程序的次數
rpc.detailed-metrics.updateBlock_avg_time 更新block到新的標記及長度的平均操作時間
rpc.detailed-metrics.updateBlock_num_ops 更新block到新的標記及長度的次數

HBase相關

引數 解釋
hbase.regionserver.blockCacheCount 記憶體中快取塊(block cache)數。快取中StoreFiles(HFiles)的塊(block)數量。
hbase.regionserver.blockCacheEvictedCount 因超出堆大小限制,從快取中釋放的塊數量。
hbase.regionserver.blockCacheFree 可用的快取塊容量。
hbase.regionserver.blockCacheHitCachingRatio 快取塊的快取命中率(0-100)。讀取的快取命中率被配置為檢視快取(如cacheblocks=true)。
hbase.regionserver.blockCacheHitCount StoreFiles(HFiles)從快取中讀取的塊數量。
hbase.regionserver.blockCacheHitRatio 快取塊的命中率(0-100).包括所有讀請求,儘管cacheBlocks=false的讀出會被計為cache丟失。
hbase.regionserver.blockCacheMissCount 被StoreFiles (HFiles)請求但是未從快取中讀出的塊數量。
hbase.regionserver.blockCacheSize 記憶體中塊快取的容量,特指被blockcache佔用的記憶體容量。
hbase.regionserver.compactionQueueSize Compaction佇列大小,用於compaction的RegionServer中的Store個數。
hbase.regionserver.flushQueueSize MemStore中等待flush操作的排隊region數量。
hbase.regionserver.fsReadLatency_avg_time 檔案系統延遲(ms)。從HDFS讀操作的平均時間。
hbase.regionserver.memstoreSizeMB 當前RegionServer中所有Memstore的總容量(MB)。
hbase.regionserver.requests 總 的讀和寫請求次數。請求相當於RegionServer的RPC呼叫,因此一個Get相當於一次請求,但是哪怕Scan的caching值設定為 1000,對SCAN每個“下一次”呼叫僅相當於一次請求,(例如,非每行)。對於大資料塊的請求,每個 HFile對應一次請求。
hbase.regionserver.storefileIndexSizeMB RegionServer中 StoreFile檔案索引大小的總和(MB)。

相關推薦

Ganglia監控HDFSHBase指標說明

HDFS相關 datanode相關 引數 解釋 dfs.datanode.blockChecksumOp_avg_time 塊校驗平均時間 dfs.datanode.blockChecksumOp_num_ops

使用ganglia 實現監控 hadoop hbase(詳細過程總結)

一,環境準備      hadoop 2.8.2 分散式環境(三個節點 安裝請參考 hadoop分散式環境安裝)      hbase 1.2.6  分散式環境(三個節點 ,安裝參考hbase分散式環境安裝 )      主節點採用 ubuntu 16.04 桌面版 ,從

Hadoop中hdfsHbase Xceivers設定

近一段在研究Impala文件,在講述Parquest table分割槽效能調優方面提到了Xceivers設定。因此將該引數英文資料整理翻譯如下: 介紹 dfs.datanode.max.xcievers 引數對客戶端有直接影響,他主要定義server端的執行緒數量,或

HDFSHbase安裝指南,hbase1.2.4

HDFS和Hbase安裝指南 硬體和作業系統建議 CPU Intel - Nehalem (2008釋出) 或以後釋出的CPU AMD - Bulldozer (2011釋出)或以後釋出的CPU CPU核心數

HDFSHBASE動態增加減少節點

一.HDFS動態增加節點: sbin/hadoop-daemon.sh start datanode sbin/hadoop-daemon.sh start tasktracker DEPRECATED: Use of this script to execute ma

ubutun16.04下安裝Ganglia監控hadoop與hbase

1.採用的是apt-get方式進行安裝:(測試叢集2臺機器)bigdata-cnki節點(主節點)進行下面命令安裝:(ganglia-monitor +gmetad +ganglia-webfrontend+apache2)sudo apt-get install gangl

利用Sqoop將MySQL海量測試資料匯入HDFSHBase

宣告:作者原創,轉載註明出處。 一、安裝Sqoop 1、下載sqoop,解壓、資料夾重新命名 wget http://mirror.bit.edu.cn/apache/sqoop/1.4.6/sqoop-1.4.6.bin_

基於kerberos的hdfshbase登入

import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.hbase.HBaseConfigurati

Storm 系列(八)—— Storm 整合 HDFS HBase

一、Storm整合HDFS 1.1 專案結構 本用例原始碼下載地址:storm-hdfs-integration 1.2 專案主要依賴 專案主要依賴如下,有兩個地方需要注意: 這裡由於我伺服器上安裝的是 CDH 版本的 Hadoop,在匯入依賴時引入的也是 CDH 版本的依賴,需要使用 <

HDFS的快照原理Hbase基於快照的表修復

才會 vertical 根據 註意 efault 失敗 機制 soft hot 前一篇文章《HDFS和Hbase誤刪數據恢復》主要講了hdfs的回收站機制和Hbase的刪除策略。根據hbase的刪除策略進行hbase的數據表恢復。本文主要介紹了hdfs的快照原理和根據快照進

hbase安裝(使用已經安裝的HDFSzookeeper)

先啟動zookeeper再啟動hbase 1.在Apache官網上下載HBASE的安裝包 http://hbase.apache.org 我安裝的是Hadoop2.4.1,所以下載了hbase-0.98.11-hadoop2-bin.tar.gz   2. 通過wins

hbase ganglia監控配置

  2015年06月09日 12:35:38 篤志近思 閱讀數:3132 hbase ganglia 監控 hbase 配置 hadoop-metrics2-hbase.properties *.sink.ganglia.class=org

叢集間動態擴充套件刪除hdfs的datanodehbase的regionserver

如果你既要增加節點,又要刪除節點呢, 我推薦的順序是:新增datanode,新增regionserver,停掉regionserver ,停掉datanode。 如果你單獨的增加或者移出呢,順序就是上面拆開的就行啦。 如果你新增機器呢,新增datanode,新增regionser

flume 對日誌監控日誌資料正則清洗最後實時集中到hbase中的示例

今天學習了flume的簡單用法,順便思考了一下,對標準日誌格式的資料實時清洗和集中儲存今天介紹一下運用正則表示式對資料進行實時清洗,將資料儲存到hbase中,前面簡單的不分列的儲存,就直接貼程式碼1、運用flume的HBasesink--SimpleHbaseEventSer

hadoop讀寫hdfs操作hbase,把hbase內容按group by排序

package org.ucas.hbase; import java.io.BufferedReader; import java.io.IOException; import java.io.InputStreamReader; import jav

【Hadoop】HBaseHDFSMapReduce架構異同簡解

HBase、HDFS和MapReduce架構異同 .. HBase(公司架構模型) HDFS2.0(公司架構模型) MR2.0(公司架構模型) MR1.0(公司架構模型)

【轉載】Hadoop 2.7.3 Hbase 1.2.4安裝教程

啟動 運行 property new rop net 文本文 .tar.gz cor 轉載地址:http://blog.csdn.net/napoay/article/details/54136398 目錄(?)[+] 一、機器環境

HiveHbase的區別

缺點 每一個 oop 設備 actions 利用 計數 映射 編寫 1. 兩者分別是什麽? Apache Hive是一個構建在Hadoop基礎設施之上的數據倉庫。通過Hive可以使用HQL語言查詢存放在HDFS上的數據。HQL是一種類SQL語言,這種語言最終被轉化為M

zabbix監控linuxwindows的tcp連接數

windows 配置文件 服務器 linux 客戶端 linux:在linux上手動獲得tcp連接數的命令為:netstat -an|awk ‘/^tcp/{++S[$NF]}END{for(a in S) print a,S[a]}‘ #ESTABLISHED socket

Sqoop_具體總結 使用Sqoop將HDFS/Hive/HBase與MySQL/Oracle中的數據相互導入、導出

能夠 mes south ase form html 技術 popu 沒有 一、使用Sqoop將MySQL中的數據導入到HDFS/Hive/HBase 二、使用Sqoop將HDFS/Hive/HBase中的數據導出到MySQL 2.3 HBase中的數據