hadoop叢集方式的安裝
1、安裝jdk
rpm -i jdk
配置環境變數
Java的預設安裝路徑:/usr/java
2、免祕鑰:
首先登陸自己,生成自己的金鑰和公鑰檔案:ssh localhost
然後生成自己的公鑰和金鑰:
ssh-keygen -t dsa -P '' -f /root/.ssh/id_dsa
設定自己和自己的免祕鑰:
進入 cd .ssh
將自己的公鑰發給自己:
[[email protected] .ssh]# cat id_dsa.pub >> authorized_keys
設定和別人的免祕鑰:
將自己的公鑰分發給別人
[[email protected] .ssh]# scp id_dsa.pub [email protected]:`pwd`/nod11.pub
[email protected]'s password:
scp: /root/.ssh/nod11.pub: No such file or directory
[[email protected] .ssh]#
然後去node12上邊,將傳送來的公鑰追加到自己的authorized_keys
[[email protected] .ssh]# cat node11.pub >> authorized_keys
這下node11就可以登入node12了,就完成了免密登入
[[email protected] .ssh]# ssh node12
然後依次執行:
[[email protected] .ssh]# cat node12.pub >> authorized_keys
[[email protected] .ssh]# cat node13.pub >> authorized_keys
[[email protected] .ssh]# cat node14.pub >> authorized_keys
[[email protected]
[[email protected] .ssh]# cat id_dsa.pub >> authorized_keys
將core-site.xml修改為;
修改slaves
修改hdfs-site.xml
在偽分散式的基礎上,將配置檔案修改,然後複製分發給叢集中的其他節點
[[email protected] opt]# scp -r ./sxt/ node14:/opt/
格式化:
hdfs namenode -format
格式化之後:
[[email protected] current]# pwd
/var/sxt/hadoop/full/dfs/name/current
[[email protected] current]# ll
total 16
-rw-r--r-- 1 root root 321 Dec 20 10:25 fsimage_0000000000000000000
-rw-r--r-- 1 root root 62 Dec 20 10:25 fsimage_0000000000000000000.md5
-rw-r--r-- 1 root root 2 Dec 20 10:25 seen_txid
-rw-r--r-- 1 root root 206 Dec 20 10:25 VERSION
[[email protected] current]#
在第一臺節點上啟動namenode,然後初始化其他的節點:
start-dfs.sh
去位址列輸入訪問:
hdfs dfs -ls /
在hdfs裡邊執行命令的時候,都需要進行加上hdfs dfs,然後才是Linux原本的命令
hdfs上傳檔案的命令:
[[email protected] ~]# hdfs dfs -D dfs.blocksize=1048576 -put ./test.txt
指令碼語言
for i in `seq 100000`;do echo "hello sxt $i" >> test.txt; done
上傳檔案的命令:
[[email protected] ~]# hdfs dfs -put ./test.txt /usr/root