hadoop啟動錯誤 找不到路由 解決方法
hadoop啟動過程中遇到下面的問題: 2012-07-04 18:43:20,763 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: STARTUP_MSG: /************************************************************ STARTUP_MSG: Starting DataNode STARTUP_MSG: host = slave1/192.168.18.87 STARTUP_MSG: args = [] STARTUP_MSG: version = 0.20.2 STARTUP_MSG: build =https://svn.apache.org/repos/asf ... ranches/branch-0.20 -r 911707; compiled by 'chrisdo' on Fri Feb 19 08:07:34 UTC 2010 ************************************************************/ 2012-07-04 18:43:22,468 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 0 time(s). 2012-07-04 18:43:23,468 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 1 time(s).2012-07-04 18:43:24,469 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 2 time(s). 2012-07-04 18:43:25,470 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 3 time(s). 2012-07-04 18:43:26,471 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 4 time(s).2012-07-04 18:43:27,472 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 5 time(s). 2012-07-04 18:43:28,473 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 6 time(s). 2012-07-04 18:43:29,474 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 7 time(s). 2012-07-04 18:43:30,475 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 8 time(s). 2012-07-04 18:43:31,475 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /192.168.18.218:9000. Already tried 9 time(s). 2012-07-04 18:43:31,479 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Call to /192.168.18.218:9000 failed on local exception: java.net.NoRouteToHostException: 沒有到主機的路由 at org.apache.hadoop.ipc.Client.wrapException(Client.java:775) at org.apache.hadoop.ipc.Client.call(Client.java:743) at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220) at $Proxy4.getProtocolVersion(Unknown Source) at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359) at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:346) at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:383) at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:314) at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:291) at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:269) at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:216) at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1283) at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1238) at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1246) at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1368) Caused by: java.net.NoRouteToHostException: 沒有到主機的路由 at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method) at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:701)
NameNode啟動start-all.sh時出現上述錯誤,解決辦法如下:
(1)從namenode主機ping其它主機名(如:ping slave1),如果ping不通,原因可能是namenode節點的/etc/hosts配置錯誤
(2)從datanode主機ping namenode主機名,如果ping不通,原因可能是datenode節點的/etc/hosts配置的配置錯誤
(3)檢視namenode主機的9000(具體根據core-site.xml中的fs.default.name節點配置)埠,是否開啟,如果已開啟(如下圖所示),原因可能是防火牆開啟,解決辦法:關閉namenode和datanode主機的防火牆,或者設定防火牆開啟指定埠
[[email protected] swxing]# netstat -nap | grep 9000 tcp 0 0 ::ffff:192.168.18.218:9000 :::* LISTEN 4662/java tcp 0 0 ::ffff:192.168.18.218:46116 ::ffff:192.168.18.218:9000 ESTABLISHED 4859/java tcp 0 0 ::ffff:192.168.18.218:9000 ::ffff:192.168.18.87:36794 ESTABLISHED 4662/java tcp 0 0 ::ffff:192.168.18.218:9000 ::ffff:192.168.18.218:46116 ESTABLISHED 4662/java
[[email protected] swxing]# service iptables stop
(4)格式化硬碟(hadoop namenode -format)後啟動namenode(start-all.sh)
以上操作命令是在centos6.1中的操作命令,其它linux系統的操作命令可能有些不一樣,讀者根據自己的系統來定義操作,本文只提供一個思路。相關推薦
hadoop啟動錯誤 找不到路由 解決方法
hadoop啟動過程中遇到下面的問題: 2012-07-04 18:43:20,763 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: STARTUP_MSG: /***********************
spring boot maven 打包提示 “程式包找不到” 解決方法。
再用springboot maven打包的時候會碰到 找不到“程式包找不到” 的問題。解決放下如下 修改父pom.xml配置檔案。 由原來的 <build> <plugins> <plugin>
iview 按需引入vue專案報iview找不到解決方法
//import iView from ‘iview’; //import ‘iview/dist/styles/iview.css’; //Vue.use(iView); 接下來,在需要用的vue檔案下,直接引入需要的iview元件就可以了 import V
Centos7 安裝vmware tool 共享檔案找不到解決方法
解決方法:yum -y install kernel-devel 重新執行: ./vmware-install.pl 2、安裝過程出現錯誤:vmhgfs-only/page.c:1625:23: error: too many arguments to fu
Spark jar包找不到解決方法
今天在使用Spark中DataFrame往Mysql中插入RDD,但是一直報出以下的異常次資訊: [[email protected] ~]$ bin/spark-submit --master local[2] --jars lib/mysql-conne
hadoop叢集NameNode起不來解決方法
1、關掉hadoop叢集 2、進入主節點/home/hadoop/hadoop-2.6.0/dfs/name/current,刪掉VERSION,從節點也是 3、格式化NameNode : hadoo
dubbo.xsd檔案 找不到解決方法
使用dubbo時遇到問題 org.xml.sax.SAXParseException: schema_reference.4: Failed to read schema document 'http://code.alibabatech.com/schema/dub
hadoop3.1.1下MapReduce操作出現錯誤: 找不到或無法載入主類org.apache.hadoop.mapreduce.v2.app.MRAppMaster 問題解決方法
Hadoop3.1.1下成功安裝後,進行MapReduce操作出現錯誤: 錯誤: 找不到或無法載入主類org.apache.hadoop.mapreduce.v2.app.MRAppMaster 解決辦法: 在命令列下輸入如下命令,並將返回的地址複製。 hadoop c
【Spring MVC】 錯誤: 找不到或無法載入主類 解決方法
【Spring MVC】 錯誤: 找不到或無法載入主類 解決方法 最近在學習Spring,在學習SpringMVC過程中,將web.xml、Dispatcher-servlet.xml、applicationContext.xml等配置完成之後,卻不懂如何部署專案到to
mac os 下建立 android avd 後啟動報找不到 avd ini 檔案 問題解決方法
在 Mac OS 上建立了android虛擬機器(avd)後,啟動的時候報找不到adv對應的ini檔案 PANIC: Could not open: ~/.android/avd/android4.0.3.ini 此檔案是建立虛擬機器的時候生成的,可以先查詢此檔案是否在別的位置: sudo find
Nginx啟動提示找不到libpcre.so.1解決方法
啟動nginx提示:error while loading shared libraries: libpcre.so.1: cannot open shared object file: No such file or directory,意思是找不到libpcre.s
ubuntu安裝pycharm後在快速啟動欄啟動提示找不到jdk的解決方法
由於學習python的需要,在電腦上安裝了pycharm社群版,按照說明進入pycharm的bin資料夾之後,執行"./pycharm.sh"指令碼執行pycharm.到此時都是正常的. 可是當再啟動欄啟動pycharm的時候系統卻提示"no JDK found",如下圖所示 倒騰一會後
SQL2005在新建複製 找不到儲存過程 錯誤:2812 的解決方法
標題: 新建釋出嚮導 ------------------------------ SQL Server 無法建立釋出“XXXXX釋出”。 ------------------------------ 其他資訊: 執行 Transact-SQL 語句或批處理時發生了異常。
Windows不能在本地計算機啟動OracleDBConsoleorcl.錯誤程式碼2的解決方法
現象: Windows 不能在 本地計算機 啟動 OracleDBConsoleorcl。有關更多資訊,查閱系統事件日誌。如果這是非 Microsoft 服務,請與服務廠商聯絡,並參考特定服務錯誤程式碼 2。 系統事件日誌 報錯誤"Agent pro
錯誤: 找不到或無法載入主類 org.apache.hadoop.hdfs.server.namenode.NameNode 問題解決
問題描述: 執行指令 在hadoop安裝路徑下執行 bin/hdfs namenode -format 時,出現“錯誤:找不到或無法載入主類org.apache.hadoop.hdfs.server.namenode.NameNode" 問題分析: 此問題是由於在
Eclipse 錯誤: 找不到或無法載入主類 解決方法
JAVA_HOME、Path、CLASSPATH都配置正確的情況下, Eclipse任出現 “錯誤: 找不到或無法載入主類” 解決方法: 不妨嘗試新建一個workSpace2,以該workSpace開啟,執行程式,則不再出現“錯誤: 找不到或無法載入
編譯報錯+解決方法:錯誤: 找不到符號
【0】README 1)本文主要解決“錯誤,找不到符號” 【1】 console error info 1)error : E:\bench-cluster\mybatis_in_action_e
解決springboot項目打jar包運行時找不到main方法方案
img http 打包 pri 方法 報錯 maven打包 boot 沒有 最近用maven打包springboot項目時,將打好的jar包運行,報錯:找不在main主清單 原來是項目的pom.xml中沒有指定項目啟動的main方法導致,解決方法如下 在pom.xml中加入
eclipse 運行錯誤:在類XXX中找不到 main 方法, 請將 main 方法定義為: public static void main(String[] args) 否則 JavaFX 應用程序類必須擴展javafx.application.Application
分享圖片 java stat 報錯 es2017 pub .... img nbsp 新建了一個類Hello: 代碼: 第一次運行報錯: 點擊關閉該類的界面時出現: 點擊是,然後再次打開,可以正確執行,結果為: 這是為什麽.... ec
錯誤: 在類 Main 中找不到 main 方法, 請將 main 方法定義為: public static void main(String[] args) 否則 JavaFX 應用程序類必須擴展javafx.application.Application
導包 javafx 其他 就是 ring del args bsp pub 錯誤: 在類 Main 中找不到 main 方法, 請將 main 方法定義為: public static void main(String[] args)否則 JavaFX 應用程序類必須擴展