二、環境搭建
阿新 • • 發佈:2018-12-02
一、環境搭建
1、關閉防火牆
檢視防護牆狀態
service iptables status
關閉
service iptables stop
檢視防火牆開機啟動狀態
chkconfig iptables --list
關閉開機啟動
chkconfig iptables off
2、修改IP
如果在沒有網的狀態下,使用only-host模式,將虛擬機器和win配置在同一個網段
vim /etc/sysconfig/network-scrips/ifcfg-eth0
win:192.168.8.100
linux:192.168.8.10
重啟網絡卡
/etc/init.d/network restart
3、修改hostname
vim /etc/sysconfig/network
4、增加對映關係
vim /etc/hosts
5、設定ssh自動登入
安裝JDK
用共享檔案或者工具軟體上傳到linux
解壓軟體:
安裝hadoop
在根目錄建立一個host01的目錄
mkdir /host01
將hadoop解壓到host01目錄下
tar -zxvf /software/hadoop-2.4.1.tar.gz -C /host01
修改相關配置檔案
偽分散式需要修改5個配置檔案
6、配置hadoop
第一個:hadoop-env.sh
vim hadoop-env.sh
#第27行
export JAVA_HOME=/usr/java/jdk1.7.0_65
第二個:core-site.xml
<!-- 制定HDFS的老大(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name>
<value>
hdfs://itcast01:9000</value>
</property>
<!-- 指定hadoop執行時產生檔案的儲存目錄 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/itcast/hadoop-2.4.1/tmp</value>
</property>
第三個:hdfs-site.xml
<!-- 指定HDFS副本的數量 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
第四個:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<!-- 指定mr執行在yarn上 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
第五個:yarn-site.xml
<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>itcast01</value>
</property>
<!-- reducer獲取資料的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
*相關命令 :
檢視ip配置: ifconfig
檢視防火牆狀態:service iptables status
主機名:hostname
檢視環境變數路徑:
echo $JAVA_HOME
/root/software/jdk1.7.0_65
7、將hadoop新增到環境變數
vim /etc/proflie
export JAVA_HOME=/usr/java/jdk1.7.0_65
export HADOOP_HOME=/itcast/hadoop-2.4.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
重新整理配置
source /etc/profile
8、驗證是否成功
1、格式化namenode(是對namenode進行初始化)
hdfs namenode -format (hadoop namenode -format)
2、啟動hadoop
先啟動HDFS
sbin/start-dfs.sh
3、再啟動YARN
sbin/start-yarn.sh
7、驗證是否啟動成功
使用jps命令驗證
27408 NameNode
28218 Jps
27643 SecondaryNameNode
28066 NodeManager
27803 ResourceManager
27512 DataNode
http://192.168.8.118:50070 (HDFS管理介面)
http://192.168.8.118:8088 (MR管理介面)
8、測試上傳下載功能
上傳:hadoop fs -put /software/hadoop-2.4.1.tar.gz hdfs://host01:9000/jdk9.配置ssh(secure shell)免登陸 #生成ssh免登陸金鑰 #進入到我的home目錄 cd ~/.ssh ssh-keygen -t rsa (四個回車) 執行完這個命令後,會生成兩個檔案id_rsa(私鑰)、id_rsa.pub(公鑰) 將公鑰拷貝到要免登陸的機器上 cp id_rsa.pub authorized_keys(一定要叫這個名) [[email protected] sbin]# jps下載:hadoop fs -get hdfs://host01:9000/jdk /home
將公鑰拷貝到要免登陸的機器上2958 SecondaryNameNode2815 DataNode2730 NameNode3430 Jps3212 NodeManager3124 ResourceManager
ssh-copy-id localhost(ip地址)