【HDFS】解決hadoop fs -put時出現createBlockOutputStream異常
向HDFS上傳檔案時出現異常:
INFO hdfs.DFSClient: Exception in createBlockOutputStream
java.io.IOException: Got error, status message , ack with firstBadLink as 192.168.234.132:50010
at org.apache.hadoop.hdfs.protocol.datatransfer.DataTransferProtoUtil.checkBlockOpStatus(DataTransferProtoUtil.java:142)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1497)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1400)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:554)
18/12/21 19:36:53 INFO hdfs.DFSClient: Abandoning BP-1635234535-192.168.234.133-1545332720741:blk_1073741841_1017
18/12/21 19:36:53 INFO hdfs.DFSClient: Excluding datanode DatanodeInfoWithStorage[192.168.234.132:50010,DS-94a817d7-e6a5-4a04-b234-8650abc6437c,DISK]
我是因為異常中那個結點機器的防火牆沒有關。
如果關了之後還是報錯可以看一下機器的程序,看看有沒有datanode在執行
如果沒有的話,執行命令hadoop-daemon.sh start datanode 會啟動機器上資料節點的守護程序。