1. 程式人生 > >hadoop 啟動的時候datanode報錯 Problem connecting to server

hadoop 啟動的時候datanode報錯 Problem connecting to server

剛配置好的hadoop,namenode可以正常開啟,但是datanode卻不停的報錯,並且不能正常啟動:

2014-05-04 10:43:33,970 WARNorg.apache.hadoop.hdfs.server.datanode.DataNode: Problem connecting to server:hadoop1/192.168.10.22:9000

2014-05-04 10:43:55,009 INFOorg.apache.hadoop.ipc.Client: Retrying connect to server:hadoop1/192.168.10.22:9000. Already tried 0 time(s); retry policy isRetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)

2014-05-04 10:43:56,012 INFOorg.apache.hadoop.ipc.Client: Retrying connect to server:hadoop1/192.168.10.22:9000. Already tried 1 time(s); retry policy isRetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)

如果你已經檢查了datanode以及namenode的連通性,ip都正確,但是仍然沒法解決問題,那麼可以接著往下看了。

其實根本原因還是無法連線到192.168.10.22:9000 相應ip的相應埠。

檢視一下namenode的埠堅挺情況:

[[email protected] sbin]$ netstat -an | grep 9000

tcp        0      0 127.0.0.1:9000              0.0.0.0:*                   LISTEN     

tcp        0     0 127.0.0.1:37072            127.0.0.1:9000             TIME_WAIT   

其實問題就再這裡,hadoop啟動的時候只監聽了127.0.0.1一個埠,而不是192.168.10.22:9000。這種情況下,也就只有本機才能聯通127.0.0.1:9000了。

看來是ip解析的問題,看一下namenode的hosts檔案(只列出了重要部分):

127.0.0.1              hadoop1localhost.localdomainlocalhost

::1            localhost6.localdomain6 localhost6

其實主要問題就在標紅的部分,只要將hadoop1去掉即可。

重啟hdfs後檢查一下埠監聽情況:

[[email protected] network-scripts]# netstat -an | grep 9000

tcp        0      0 192.168.10.22:9000          0.0.0.0:*                   LISTEN     

tcp        0      0 192.168.10.22:9000          192.168.10.24:51040         ESTABLISHED

tcp        0      0 192.168.10.22:41116         192.168.10.22:9000          TIME_WAIT  

tcp        0      0 192.168.10.22:9000          192.168.10.23:46070         ESTABLISHED

修改後datanode就可以正常連線namenode了。

相關推薦

hadoop 啟動的時候datanode Problem connecting to server

剛配置好的hadoop,namenode可以正常開啟,但是datanode卻不停的報錯,並且不能正常啟動: 2014-05-04 10:43:33,970 WARNorg.apache.hadoop.hdfs.server.datanode.DataNode: Pr

Hadoop 啟動dfsPermission denied

報錯日誌如下: yun12-01: starting namenode, logging to hadoop-rand-namenode-yun12-01.out yun12-01: /logs/hadoop-rand-namenode-yun12-01.out: Permission deni

springboot啟動專案:Failed to determine a suitable driver class

轉載自:https://blog.csdn.net/AinUser/article/details/81533858 第一種情況: 在application.properties/或者application.yml檔案中沒有新增資料庫配置資訊 spring: datasource:

IntelliJ idea啟動tomcat:Unable to ping server at localhost:1099 解決

提示資訊:Intellij IDEA Tomcat Application Server was not connected before run configuration stop, reason: Unable to ping server at localhost:1099

JanusGraph啟動ES:Unable to determine Elasticsearch server version. Default to FIVE.

12:15:49 WARN org.janusgraph.diskstorage.es.rest.RestElasticSearchClient - Unable to determine Ela

啟動mysql:ERROR! The server quit without updating

mysql啟動mysql報錯:ERROR! The server quit without updating PID file (/data/mysql/localhost.localdomain.pid),查看mysql.log發現報錯信息:[ERROR] Fatal error: Can‘t open a

MySQL root密碼重置 mysqladmin connect to server at 'localhost

                -- ====================================================================--  mysqladmin: connect to server at 'localhost' failed的解決方案!-- ====

hadoop平臺:ATTEMPTING TO OPERATE ON HDFS NAMENODE AS ROOT(start-all.sh)啟動失敗解決方法

如果遇到 需要修改start-dfs.sh         stop-dfs.sh         start-yarn.sh  

啟動hiveUnable to instantiate org.apache.hadoop.hive.metastore.HiveMetaStoreClient

Exception in thread "main" java.lang.RuntimeException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.metastore.HiveMetaStor

Hadoop啟動dataNode失敗,卻沒有任何

not ado rto size 不一致 p s mmu 16px centos7 問題描述: centos7,偽分布模式下,啟動datanode後,通過JPS查看發現沒有相關進程,在日誌文件裏也沒有任何提示。通過百度,網上一堆說什麽vesion 的ID不一致,不能解決我

啟動hadoop集群的時候只能啟動一個namenode,另一個There appears to be a gap in the edit log. We expected txid 6, but got txid 10.

creat loader main sta 拷貝 最重要的 讀取 reat ber 背景:昨晚11點40幾分,終於各個集群組件都啟動成功了,然後心滿意足的去睡覺了,但是今早再起來再去啟動的時候就出現了namenode的問題,然後就開始了查找原因的艱辛歷程。 查看報錯的lo

啟動hive[ERROR] Terminal initialization failed; falling back to unsupported

ror -m initial erro nal hadoop lin con 錯誤 啟動hive時報例如以下的錯誤[ERROR] Terminal initialization failed; falling back to unsupported 解決的方法:進入到h

tomcat啟動Bad version number in .class file (unable to load class oracle.jdbc.OracleDriver)

.com 使用 重啟 jdbc file unable 錯誤 得到 ava 對於tomcat啟動後報錯: 錯誤原因:tomcat使用的jdk和eclipce的編譯用的jdk版本不同。 解決辦法: 1、首先確定tomcat的jdk版本: 2、點開tomcat查看jdk版本。

(轉)啟動網卡(Failed to start LSB: Bring up/down networking )解決辦法總結

deb contain ade nag disabled dev nta container save 啟動網卡報錯(Failed to start LSB: Bring up/down networking )解決辦法總結 原文:http://blog.51cto.com

Docker中啟動mysql: Failed to get D-Bus connection

-- oop 鏡像文件 com port oot roo 生成 systemctl docker版本:[root@localhost ~]# docker versionClient: Version: 1.10.3 API version: 1.2

nginx端口占用,啟動:bind() to 0.0.0.0:80 failed (10013: An attempt was made to access a ........)

今天在自學Nginx的時候,啟動Windows版本的Nginx時候發現了[emerg] 4276#4280: bind() to 0.0.0.0:80 failed(10013: An attempt was made to access a socket in a way forbidd

記一次sshd啟動,Failed to start OpenSSH server daemon.

sshd -t [[email protected] proj]# sshd -t @@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@ @ WARNING: UNPROTECTED PRIVATE KEY F

springboot啟動:Failed to configure a DataSource

failed 方便 快捷 jdb 簡化 效率 alt exc 代碼 一、背景   springboot的出現,讓項目搭建變得更方便快捷,同時簡化掉很多的樣板化配置代碼,提高開發效率。   通過idea生成springboot項目,啟動報錯:Failed to configu

linux 系統中系統關機後,mysql啟動失敗:ERROR 2002 (HY000): Can't connect to local MySQL server through socket '

自己在阿里雲伺服器上安裝好執行環境後,mysql都是正常使用的,昨天強制關閉伺服器後,重新啟動伺服器,發現數據庫無法啟動報錯:ERROR 2002 (HY000): Can't connect to local MySQL server through socket '/va

【轉】【centos】啟動網絡卡(Failed to start LSB: Bring up/down networking )解決辦法總結

今天一臺一直在用的虛擬機器重啟後,CRT連線不上,ip也ping不通,重啟網絡卡報錯,“Failed to start LSB: Bring up/down networking”,參考:http://blog.51cto.com/11863547/1905929,解決。 遇到這個錯誤好幾次,所以總結了一下