1. 程式人生 > >Hadoop入坑記

Hadoop入坑記

Hadoop入坑記

按照官方給的偽分散式配置

etc/hadoop/core-site.xml:

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

進行配置會出問題

 

 

正確的配置如下:

 

還有一個地方需要修改的就是/etc/hosts

其他地方不需要進行修改

 

 

前面配置好hadoop後,在使用中發現一個問題。就是每次啟動都需要格式化,不然namenode就無法啟動。

在網上找到了相應的解決方法http://blog.csdn.net/bychjzh/article/details/7830508

內容如下:

  最近遇到了一個問題,執行start-all.sh的時候發現JPS一下namenode沒有啟動
        每次開機都得重新格式化一下namenode才可以
        其實問題就出在tmp檔案,預設的tmp檔案每次重新開機會被清空,與此同時namenode的格式化資訊就會丟失
        於是我們得重新配置一個tmp檔案目錄
        首先在home目錄下建立一個hadoop_tmp目錄
                sudo mkdir ~/hadoop_tmp
        然後修改hadoop/conf目錄裡面的core-site.xml檔案,加入以下節點:
                <property>
                        <name>hadoop.tmp.dir</name>
                <value>/home/chjzh/hadoop_tmp</value>
                        <description>A base for other temporary directories.</description>
                </property>
        注意:我的使用者是chjzh所以目錄是/home/chjzh/hadoop_tmp
                
        OK了,重新格式化Namenode
                hadoop namenode -format
        然後啟動hadoop
                start-all.sh
        執行下JPS命令就可以看到NameNode了

我依照上面的方法操作後,發現還是無法啟動。

最後才明白,是新建的目錄沒有修改許可權,圖點簡單,就直接給了777許可權,然後就都好了。

室友推薦了一篇更加詳細的配置hadoop 的文章,圖文並茂。http://blog.csdn.net/hitwengqi/article/details/8008203