1. 程式人生 > >hadoop叢集方式的安裝

hadoop叢集方式的安裝

1、安裝jdk

rpm -i  jdk

配置環境變數

Java的預設安裝路徑:/usr/java

2、免祕鑰:

首先登陸自己,生成自己的金鑰和公鑰檔案:ssh localhost

然後生成自己的公鑰和金鑰:

ssh-keygen -t dsa -P '' -f /root/.ssh/id_dsa

設定自己和自己的免祕鑰:

進入 cd .ssh

將自己的公鑰發給自己:

[[email protected] .ssh]# cat id_dsa.pub >> authorized_keys

設定和別人的免祕鑰:

將自己的公鑰分發給別人

[[email protected] .ssh]# scp id_dsa.pub [email protected]:`pwd`/nod11.pub
[email protected]'s password: 
scp: /root/.ssh/nod11.pub: No such file or directory
[[email protected] .ssh]#

然後去node12上邊,將傳送來的公鑰追加到自己的authorized_keys

[[email protected] .ssh]# cat node11.pub >> authorized_keys

這下node11就可以登入node12了,就完成了免密登入

[[email protected] .ssh]# ssh node12

然後依次執行:

[[email protected] .ssh]# cat node12.pub >> authorized_keys
[[email protected] .ssh]# cat node13.pub >> authorized_keys
[[email protected] .ssh]# cat node14.pub >> authorized_keys
[[email protected]

.ssh]# cat node15.pub >> authorized_keys
[[email protected] .ssh]# cat id_dsa.pub >> authorized_keys

將core-site.xml修改為;

修改slaves

修改hdfs-site.xml

在偽分散式的基礎上,將配置檔案修改,然後複製分發給叢集中的其他節點

 [[email protected] opt]# scp -r ./sxt/ node14:/opt/

格式化:

hdfs namenode -format

格式化之後:

[[email protected] current]# pwd
/var/sxt/hadoop/full/dfs/name/current
[[email protected] current]# ll
total 16
-rw-r--r-- 1 root root 321 Dec 20 10:25 fsimage_0000000000000000000
-rw-r--r-- 1 root root  62 Dec 20 10:25 fsimage_0000000000000000000.md5
-rw-r--r-- 1 root root   2 Dec 20 10:25 seen_txid
-rw-r--r-- 1 root root 206 Dec 20 10:25 VERSION
[[email protected] current]# 

在第一臺節點上啟動namenode,然後初始化其他的節點:

start-dfs.sh

去位址列輸入訪問:

 

hdfs dfs -ls /
在hdfs裡邊執行命令的時候,都需要進行加上hdfs dfs,然後才是Linux原本的命令

hdfs上傳檔案的命令:

[[email protected] ~]# hdfs dfs -D dfs.blocksize=1048576 -put  ./test.txt

指令碼語言

for i in `seq 100000`;do echo "hello sxt $i" >> test.txt; done

上傳檔案的命令:

[[email protected] ~]# hdfs dfs -put ./test.txt /usr/root