hadoop 實驗一 安裝配置 hadoop
實驗內容與完成情況:
執行命令 sudo apt-get install ssh openssh-server
執行命令 ssh-keygen -t rsa -P ""
複製SSH公鑰到/home/user/.ssh目錄下,並重命名為authorized_keys(把這個認證檔案拷貝到其他的salve機上) 執行命令 cat ~/.ssh/id_rsa.pub >>./.ssh/authorized_key
執行命令 ssh localhost 登入 exit 退出
輸入命令ifconfig
開啟winscp輸入IP地址和username、password
修改全域性配置檔案,作用於所有使用者執行 開啟profile檔案,輸入環境變數 執行命令sudo gedit /etc/profile 在檔案末追加以下內容並儲存 export JAVA_HOME=/home/salve/soft/jdk1.8.0_92 export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=.:${JAVA_HOME}/bin:$PATH 執行命令sudo source /etc/profile 儲存更改 執行命令java –version檢視是否配置成功
修改全域性配置檔案,作用於所有使用者執行 開啟profile檔案,輸入環境變數 執行命令sudo gedit /etc/profile 在檔案末追加以下內容並儲存 export HADOOP_HOME=/home/salve/soft/hadoop-2.7.2 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HAME/sbin 執行命令sudo source /etc/profile 儲存更改 執行命令hadoop version檢視是否配置成功
建立namenode目錄和datanode目錄 開啟檔案~/soft/Hadoop-2.7.2/etc/hdfs-site.xml輸入配置項
開啟檔案~/soft/Hadoop-2.7.2/etc/core-site.xml輸入配置項
開啟檔案~/soft/Hadoop-2.7.2/etc/mapred-site.xml.template輸入配置項
開啟檔案~/soft/Hadoop-2.7.2/etc/Hadoop-env.s輸入配置項
執行命令cd ~/soft/Hadoop-2.7.2進入hadoop目錄 執行命令 ./bin/hdfs namenode –format
執行命令./sbin/start-dfs.sh 執行命令jps檢視namenode、datanode是否啟動
在瀏覽器中檢視192.168.149.130:50070
先去網上找一篇英語作文,儲存在~/soft/words檔案中 執行命令bin/hdfs dfs -mkdir /test,在hdfs的根目錄下建立一個test目錄 執行命令bin/hdfs dfs -put ~/soft /words /test/把本地檔案上傳到test目錄中 執行命令bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /test/words /test/out執行wordcount例子 執行命令bin/hadoop fs -cat /test/out/part-r-00000檢視結果 |
出現的問題:
|
解決方案(列出遇到的問題和解決辦法,列出沒有解決的問題):
|