1. 程式人生 > 實用技巧 >hadoop 實驗一 安裝配置 hadoop

hadoop 實驗一 安裝配置 hadoop

實驗內容與完成情況:

  1. 安裝SSH

執行命令 sudo apt-get install ssh openssh-server

  1. 生成SSH-KEY

執行命令 ssh-keygen -t rsa -P ""

  1. 拷貝SSH認證祕鑰

複製SSH公鑰到/home/user/.ssh目錄下,並重命名為authorized_keys(把這個認證檔案拷貝到其他的salve機上)

執行命令 cat ~/.ssh/id_rsa.pub >>./.ssh/authorized_key

  1. 測試SSH免密操作

執行命令 ssh localhost 登入 exit 退出

  1. 檢視IP

輸入命令ifconfig

  1. 連線虛擬機器上傳JDK
    hadoop檔案包

開啟winscp輸入IP地址和username、password

  1. 解壓縮

  1. 配置JDK環境變數

修改全域性配置檔案,作用於所有使用者執行

開啟profile檔案,輸入環境變數

執行命令sudo gedit /etc/profile

在檔案末追加以下內容並儲存

export JAVA_HOME=/home/salve/soft/jdk1.8.0_92

export JRE_HOME=${JAVA_HOME}/jre

export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

export PATH=.:${JAVA_HOME}/bin:$PATH

執行命令sudo source /etc/profile 儲存更改

執行命令java –version檢視是否配置成功

  1. 配置hadoop環境變數

修改全域性配置檔案,作用於所有使用者執行

開啟profile檔案,輸入環境變數

執行命令sudo gedit /etc/profile

在檔案末追加以下內容並儲存

export HADOOP_HOME=/home/salve/soft/hadoop-2.7.2

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HAME/sbin

執行命令sudo source /etc/profile 儲存更改

執行命令hadoop version檢視是否配置成功

  1. 配置hdfs-site.xml

建立namenode目錄和datanode目錄

開啟檔案~/soft/Hadoop-2.7.2/etc/hdfs-site.xml輸入配置項

  1. 配置core-site.xml

開啟檔案~/soft/Hadoop-2.7.2/etc/core-site.xml輸入配置項

  1. 配置mapred-site.xml.template

開啟檔案~/soft/Hadoop-2.7.2/etc/mapred-site.xml.template輸入配置項

  1. 配置hadoop-env.sh檔案內的JAVA_HOME

開啟檔案~/soft/Hadoop-2.7.2/etc/Hadoop-env.s輸入配置項

  1. NameNode 的格式化

執行命令cd ~/soft/Hadoop-2.7.2進入hadoop目錄

執行命令 ./bin/hdfs namenode –format

  1. 啟動namenode、datanode

執行命令./sbin/start-dfs.sh

執行命令jps檢視namenode、datanode是否啟動

  1. 在宿主機中檢視dashboard

在瀏覽器中檢視192.168.149.130:50070

  1. 執行例子WordCount Demo

先去網上找一篇英語作文,儲存在~/soft/words檔案中

執行命令bin/hdfs dfs -mkdir /test,在hdfs的根目錄下建立一個test目錄

執行命令bin/hdfs dfs -put ~/soft /words /test/把本地檔案上傳到test目錄中

執行命令bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /test/words /test/out執行wordcount例子

執行命令bin/hadoop fs -cat /test/out/part-r-00000檢視結果

出現的問題:

  1. 安裝ssh時提示:Unable to locate package openssh
  2. 啟動namenode、datanode程序的時候報[Fatal Error] hdfs-site.xml:20:1: Content is not allowed in prolog.
  3. 啟動namenode,datanode時只有namenode正常啟動了,datanode啟動失敗

解決方案(列出遇到的問題和解決辦法,列出沒有解決的問題):

  1. 執行命令 apt-get update解決
  2. 把三個XML配置檔案格式化一下解決
  3. 因為hdfs-site.xml檔案中namenode配置路徑多寫一個f,刪除後重新執行命令./bin/hdfs namenode –format、./sbin/start-dfs.sh解決