1. 程式人生 > >hadoop常見問題彙總(二)

hadoop常見問題彙總(二)

在hadoop安裝過程中會出現各種小問題,如許可權問題等。下面就幾個進行分析:

1. 

ERROR hdfs.DFSClient: Exception closing file /tmp/input2 : org.apache.hadoop.ipc.RemoteException: java.io.IOException: File /tmp/input2 could only be replicated to 0 nodes, instead of 1
理解:這個問題,可以很清楚地看到是有節點沒啟動或者沒連線上。這裡replicated 是我們在配置檔案中hdfs-site.xml中配置的,單節點都是配置的數字1,這裡說應該是0,就說明找不到節點。經過幾番折騰,知道是由於datanode節點沒開的原因。所以出現這個問題,可以jps看你的節點datanode有沒有開,如果沒有,就找沒開的原因。可以看datanode的日誌分析 在/var/...下可以檢視。jps之後NameNode SecondaryNameNode DataNode 
JobTracker TaskTracker都有才是正常的。

2. 

關於外掛hadoop-eclipse-plugin-1.0.2.jar放到eclipse plugin中之後不能用的問題。這個外掛裡面缺少jar包,所以需要自己做一個能用的外掛,具體參見http://hi.baidu.com/wangyucao1989/blog/item/279cef87c4b37c34c75cc315.html 注意幾點,如果是Ubuntu apt-get install 安裝的eclipse,那麼外掛放在/usr/lib/eclipse/plugin 中才有效。還有就是INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. 出現這個問題,一般是hadoop的配置問題。jps看有沒有都開啟,然後檢視埠配置有沒有錯誤。