安裝hadoop2.9.2 jdk1.8 centos7
安裝JDK1.8
檢視JDK1.8的安裝
https://www.cnblogs.com/TJ21/p/13208514.html
安裝hadoop
上傳hadoop
下載hadoop 地址http://mirrors.hust.edu.cn/apache/hadoop/common/
放到mkdir /usr/local/src/hadoop目錄下
解壓tar -zxvf hadoop-2.9.2.tar.gz
配置環境變數
vi /etc/profile 新增如下配置 export HADOOP_HOME=/usr/local/src/hadoop/hadoop-2.9.
export PATH=$HADOOP_HOME/bin:$PATH 重新重新整理配置 source /etc/profile 檢視版本 hadoop version
修改配置檔案
vi core-site.xml
路徑是 cd /usr/local/src/hadoop/hadoop-2.9.2/etc/hadoop
vi core-site.xml 新增如下配置
<property>
<name>fs.defaultFS</name>
<!-- 這裡填的是你自己的ip,埠預設-->
<value>hdfs://192.168.0.130:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<!-- 這裡填的是你自定義的hadoop工作的目錄,埠預設-->
<value>/usr/local/src/hadoop/hadoop-2.9.2/tmp</value>
</property>
<property>
<name>hadoop.native.lib</name>
<value>false</value>
<description>Should native hadoop libraries, if present, be used.
</description>
</property>
vi hadoop-env.sh 配置成你自己的jdk安裝路徑
vi hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property> <property>
<name>dfs.secondary.http.address</name> <!--這裡是你自己的ip,埠預設-->
<value>192.168.0.130:50090</value>
</property>
vi mapred-site.xml
複製預設的cp mapred-site.xml.template ./mapred-site.xml 配置命名為mapred-site.xml
vi mapred-site.xml 新增如下配置
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
配置yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<!-- 自己的ip埠預設 -->
<value>192.168.0.130</value>
</property>
<!-- reducer獲取資料的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
配置完成啟動
配置好之後切換到sbin目錄下
cd /usr/local/src/hadoop/hadoop-2.9.2/sbin/ 檢視命令 ll
格式化hadoop檔案格式,執行命令 hadoopnamenode -format,成功之後啟動
執行啟動所有命令
./start-all.sh
沒啟動一個程式需要輸入密碼,可以通過配置ssh來解決,就不需要輸入了,暫時配置
使用 jps 檢視程式,能看到這些程式證明啟動成功了,
也可以通過網頁來檢視 192.168.0.130:50070 此處的ip是自己的虛擬機器器IP
關閉防火牆的方法為:
systemctl stop firewalld.service #停止firewall systemctl disable firewalld.service #禁止firewall開機啟動