Hadoop常用埠記錄
阿新 • • 發佈:2018-11-05
Hadoop常用埠記錄
預設埠 設定位置 描述資訊
8020 namenode RPC互動埠
8021 JT RPC互動埠
50030
50070 dfs.http.address NameNode administrative web GUI NAMENODE的HTTP伺服器和埠
50010 dfs.datanode.address DataNode control port (each DataNode listens on this port and registers it with the NameNode on startup)
DATANODE控制埠,主要用於DATANODE初始化時向NAMENODE提出註冊和應答請求
50020 dfs.datanode.ipc.address DataNode IPC port, used for block transfer DATANODE的RPC伺服器地址和埠
50060 mapred.task.tracker.http.address Per TaskTracker web interface TASKTRACKER的HTTP伺服器和埠
50075 dfs.datanode.http.address Per DataNode web interface DATANODE的HTTP伺服器和埠
50090 dfs.secondary.http.address Per secondary NameNode web interface 輔助DATANODE的HTTP伺服器和埠
更詳細的版本
裝載於http://www.aboutyun.com/thread-7513-1-1.html
Hadoop叢集的各部分一般都會使用到多個埠,有些是daemon之間進行互動之用,有些是用於RPC訪問以及HTTP訪問。而隨著Hadoop周邊元件的增多,完全記不住哪個埠對應哪個應用,特收集記錄如此,以便查詢。 這裡包含我們使用到的元件:HDFS, YARN, HBase, Hive, ZooKeeper:
元件 | 節點 | 預設埠 | 配置 | 用途說明 |
HDFS | DataNode | 50010 | dfs.datanode.address | datanode服務埠,用於資料傳輸 |
HDFS | DataNode | 50075 | dfs.datanode.http.address | http服務的埠 |
HDFS | DataNode | 50475 | dfs.datanode.https.address | https服務的埠 |
HDFS | DataNode | 50020 | dfs.datanode.ipc.address | ipc服務的埠 |
HDFS | NameNode | 50070 | dfs.namenode.http-address | http服務的埠 |
HDFS | NameNode | 50470 | dfs.namenode.https-address | https服務的埠 |
HDFS | NameNode | 8020 | fs.defaultFS | 接收Client連線的RPC埠,用於獲取檔案系統metadata資訊。 |
HDFS | journalnode | 8485 | dfs.journalnode.rpc-address | RPC服務 |
HDFS | journalnode | 8480 | dfs.journalnode.http-address | HTTP服務 |
HDFS | ZKFC | 8019 | dfs.ha.zkfc.port | ZooKeeper FailoverController,用於NN HA |
YARN | ResourceManager | 8032 | yarn.resourcemanager.address | RM的applications manager(ASM)埠 |
YARN | ResourceManager | 8030 | yarn.resourcemanager.scheduler.address | scheduler元件的IPC埠 |
YARN | ResourceManager | 8031 | yarn.resourcemanager.resource-tracker.address | IPC |
YARN | ResourceManager | 8033 | yarn.resourcemanager.admin.address | IPC |
YARN | ResourceManager | 8088 | yarn.resourcemanager.webapp.address | http服務埠 |
YARN | NodeManager | 8040 | yarn.nodemanager.localizer.address | localizer IPC |
YARN | NodeManager | 8042 | yarn.nodemanager.webapp.address | http服務埠 |
YARN | NodeManager | 8041 | yarn.nodemanager.address | NM中container manager的埠 |
YARN | JobHistory Server | 10020 | mapreduce.jobhistory.address | IPC |
YARN | JobHistory Server | 19888 | mapreduce.jobhistory.webapp.address | http服務埠 |
HBase | Master | 60000 | hbase.master.port | IPC |
HBase | Master | 60010 | hbase.master.info.port | http服務埠 |
HBase | RegionServer | 60020 | hbase.regionserver.port | IPC |
HBase | RegionServer | 60030 | hbase.regionserver.info.port | http服務埠 |
HBase | HQuorumPeer | 2181 | hbase.zookeeper.property.clientPort | HBase-managed ZK mode,使用獨立的ZooKeeper叢集則不會啟用該埠。 |
HBase | HQuorumPeer | 2888 | hbase.zookeeper.peerport | HBase-managed ZK mode,使用獨立的ZooKeeper叢集則不會啟用該埠。 |
HBase | HQuorumPeer | 3888 | hbase.zookeeper.leaderport | HBase-managed ZK mode,使用獨立的ZooKeeper叢集則不會啟用該埠。 |
Hive | Metastore | 9083 | /etc/default/hive-metastore中export PORT=<port>來更新預設埠 | |
Hive | HiveServer | 10000 | /etc/hive/conf/hive-env.sh中export HIVE_SERVER2_THRIFT_PORT=<port>來更新預設埠 | |
ZooKeeper | Server | 2181 | /etc/zookeeper/conf/zoo.cfg中clientPort=<port> | 對客戶端提供服務的埠 |
ZooKeeper | Server | 2888 | /etc/zookeeper/conf/zoo.cfg中server.x=[hostname]:nnnnn[:nnnnn],標藍部分 | follower用來連線到leader,只在leader上監聽該埠。 |
ZooKeeper | Server | 3888 | /etc/zookeeper/conf/zoo.cfg中server.x=[hostname]:nnnnn[:nnnnn],標藍部分 | 用於leader選舉的。只在electionAlg是1,2或3(預設)時需要。 |
所有埠協議均基於TCP。 對於存在Web UI(HTTP服務)的所有hadoop daemon,有如下url: /logs
日誌檔案列表,用於下載和檢視 /logLevel
允許你設定log4j的日誌記錄級別,類似於hadoop daemonlog /stacks
所有執行緒的stack trace,對於debug很有幫助 /jmx
服務端的Metrics,以JSON格式輸出。 /jmx?qry=Hadoop:*會返回所有hadoop相關指標。
/jmx?get=MXBeanName::AttributeName 查詢指定bean指定屬性的值,例如/jmx?get=Hadoop:service=NameNode,name=NameNodeInfo::ClusterId會返回ClusterId。
這個請求的處理類:org.apache.hadoop.jmx.JMXJsonServlet 而特定的Daemon又有特定的URL路徑特定相應資訊。 NameNode:http://:50070/ /dfshealth.jsp
HDFS資訊頁面,其中有連結可以檢視檔案系統 /dfsnodelist.jsp?whatNodes=(DEAD|LIVE)
顯示DEAD或LIVE狀態的datanode /fsck
執行fsck命令,不推薦在叢集繁忙時使用! DataNode:http://:50075/ /blockScannerReport
每個datanode都會指定間隔驗證塊資訊