Linux mint偽分散式安裝hadoop3.0.0
首先安裝jdk,
我這裡使用的是linux mint,自帶圖形化介面,下載好linux版的jdk8-161後,放到/development/目錄下,進行解壓
# 將jdk8u_161改名成jdk
~ mv jdk8u_161 jdk
# 解壓jdk壓縮包
~ tar -zxvf jdk
- 編輯Java環境變數:
~ vim /etc/profile
# 在profile檔案最後加入下面程式碼
export JAVA_HOME=/home/hoodzwh/development/jdk
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME /lib/dt.jar:$JAVA_HOME/lib/tools.jar
# 立即使環境變數生效
~ source /etc/profile
配置完成之後,在命令列輸入java -version,顯示java的版本資訊則表示配置java成功,JAVA_HOME的值是你本機jdk的安裝目錄,在linux中,分隔符路徑的符號是:,linux下是區分大小寫的,所以上面的字母要注意大寫。
2. 配置ssh免密登入
進入使用者根目錄下,首先確定系統是否有ssh命令,沒有則安裝
~ apt-get install ssh
# 新建.ssh資料夾,如果有則不用建
~ mkdir .ssh
#進入.ssh資料夾,生成金鑰
~ ssh-keygen -t rsa
這個命令會在.ssh資料夾中生成id_rsa私鑰檔案、id_rsa.pub公鑰檔案。然後將id_rsa.pub中的內容加進authorized_keys檔案中。
# 如果沒有authorized_keys檔案則新建
~ touch authorized_keys
~ cat id_rsa.pub >> authorized_keys
**注意,這裡是>>,而不是>,如果是>,則會刪除id_rsa.pub中的內容。**
之後,測試ssh到本機是否需要密碼
~ ssh localhost
如果不需要,說明ssh免密登入成功
- 下載hadoop3.0.0.tar.gz改名為hadoop,並解壓到開發檔案目錄下,
編輯/etc/profile檔案,配置hadoop環境變數
# 在profile檔案最後加入以下程式碼
~ export HADOOP_HOME=/home/hoodzwh/development/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
# 生效profile檔案
~ source /etc/profile
進入到hadoop/etc/hadoop目錄下,需要配置的檔案有:
hadoop-env.sh,core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml,在此之前,需要配置/etc/hosts
~ vim /etc/hosts
#在hosts檔案最後加入如下程式碼:
127.0.0.1 master
127.0.0.1 slave1
127.0.0.1 slave2
**hadoop-env.sh**
export JAVA_HOME=/home/hoodzwh/development/jdk
**core-site.xml**
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hoodzwh/development/hadoop/tmp</value>
</property>
**注意:這裡hadoop.tmp.dir的value,如果用預設的容易出問題,預設的tmp路徑在每次重啟機器會刪除tmp資料夾內容,所以我自己在hadoop目錄下新建tmp資料夾存放臨時檔案**
**hdfs-site.xml**
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
這裡是配置檔案需要儲存多少份,因為是偽分散式,我這裡不需要多餘的副本
**yarn-site.xml**
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
**mapred-site.xml**
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.admin.user.env</name>
<value>HADOOP_MAPRED_HOME=$HADOOP_COMMON_HOME</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=$HADOOP_COMMON_HOME</value>
</property>
完成之後,進入hadoop/bin目錄下,
~ ./hdfs namenode -format
進入hadoop/sbin目錄下
~ ./start-dfs.sh
~ ./start-yarn.sh
- 驗證hadoop叢集是否搭建成功:
在瀏覽器輸入:http://master:8088 和 http://master:9870看看有沒有yarn和namenode節點的資訊,如果有介面出現,說明配置成功
相關推薦
Linux mint偽分散式安裝hadoop3.0.0
首先安裝jdk, 我這裡使用的是linux mint,自帶圖形化介面,下載好linux版的jdk8-161後,放到/development/目錄下,進行解壓 # 將jdk8u_161改名成jdk ~ mv jdk8u_161 jdk # 解壓jdk壓縮包
Spark2.0.1偽分散式安裝配置
前言.Spark簡介和hadoop的區別 Spark 是一種與 Hadoop 相似的開源叢集計算環境,但是兩者之間還存在一些不同之處,Spark 啟用了記憶體分佈資料集,除了能夠提供互動式查詢外,它還可以優化迭代工作負載。 1.架構不同。 Hadoop是對
hadoop2.2.0上spark偽分散式安裝
1. 從官網上下下載合適的版本: http://spark.apache.org/downloads.html 筆者下載的是for hadoop2.2版本的spark0.9.2 2. 解壓,配置環境: sudo gedit /etc/profile 新增SPARK_HOM
Spark本地安裝及Linux下偽分散式搭建
title: Spark本地安裝及Linux下偽分散式搭建 date: 2018-12-01 12:34:35 tags: Spark categories: 大資料 toc: true 個人github部落格:Josonlee’s Blog 文章目錄
linux下使用yum安裝新版php7.0
1、首先要更新yum源,不然是預設的老版本,一般都在5.6及以下,但是php7都出來好久了,效能提升50%以上! 按照系統更新yum源,我的是centos7,所以我執行下面的程式碼! CentOS/RHEL 7.x: rpm -Uvh https://dl.fedora
linux中下載和安裝git2.3.0
yum -y install git 但是yum源中安裝的git版本是1.7.1,Github等需要的Git版本最低都不能低於1.7.2 。 所以我們一般不用上面的方法,而是下載git原始碼編譯安裝。
Linux中基於hadoop安裝hive(RHEL7.0+hadoop2.8.3+hive2.3.2)
2安裝 3.3測試 關鍵字:Linux Java CentOS Hadoop Hive 說明:安裝hive前提是要先安裝hadoop叢集,並且hive只需要再hadoop的namenode節點叢集裡安裝即可(需要再所有n
centos / Linux 服務環境下安裝 Redis 5.0.3
linu server image bsp 文件 .tar.gz 開放端口 sta 源碼包 原文:centos / Linux 服務環境下安裝 Redis 5.0.3 1、首先進入你要安裝的目錄 cd /usr/local 2、下載目前最新穩定版本 Redis
Linux虛擬機器上安裝jdk1.8.0
我是一名Java初級的開發工程師,很多地方都需要自己慢慢去探究和摸索。現在就在Linux系統上安裝jdk1.8.0_131這個版本為例子,詳細講解我在安裝jdk過程中的步驟和一些基本的命令,以供參考。 我是在Windows7系統上安裝了VMware Workstation
linux mint 18.2 安裝wireshark
-s sudo uri wire rep class conf comm via Method 1: Via PPA Step 1: Add the official PPA sudo add-apt-repository ppa:wireshark-dev/sta
Linux Mint 17.1 安裝全配置
做的 text -m fin installer /etc reference 安裝oracle u盤啟動盤 Linux Mint 17.1 安裝全配置 I. 前言 由於自己的本子出現了一些故障需要重新安裝系統,就上網看看今年4,5月份發布的一些新的發行版來試試。原先電腦上
如何在Linux Mint Cinnamon中安裝MATE桌面
html linux m 如何 sta 完成後 date 不想 版本 來看 如何在Linux Mint Cinnamon中安裝MATE桌面 Linux Mint有兩個版本,Cinnamon版本更漂亮,消耗資源也高,Mate版本資源需求較低,如果你安裝了Cinnamon版本,
Hadoop單機式偽分散式安裝詳解
Ubuntu、centos7、6叢集搭建:https://blog.csdn.net/qq_40938267/article/details/83476896 遇到的問題以及解決方法: 1.在./bin/hdfs namenode –format時 載入不出class 檢視配置的
偽分散式安裝Hadoop
Hadoop簡單介紹 Hadoop:適合大資料分散式儲存與計算的平臺。 Hadoop兩大核心專案: 1、HDFS:Hadoop分散式檔案系統 HDFS的架構: 主從結構: 主節點,只有一個:namenode 1、接收
偽分散式安裝zookeeper
cd ..; tar -zxvf softs/zookeeper-3.4.5-cdh5.3.6.tar.gz mv zookeeper-3.4.5-cdh5.3.6 zk-pseudo-distributed rm zookeeper; ln -s zk-pseudo-distributed zook
hadoop在centos系統上的偽分散式安裝
建立hadoop使用者 建立hadoop使用者可以使不同使用者之間有明確的許可權區別,也可使針對hadoop的配置操作不影響其他使用者的使用。 >>su root //切換到超級系統管理員,需要輸入密碼 >>useradd -
Hodoop偽分散式安裝步驟
jdk安裝 解壓:tar -zxvf jdk /home/shawee/app/jdk1.8.0_181 -C ~/app 新增到系統環境變數:~/.bash_profile export JAVA
單點偽分散式安裝HADOOP
安裝 建立檔案儲存目錄 先切換到hadoopAdmin,然後建立資料夾儲存Hadoop的臨時檔案 $su hadoopAdmin $sudo mkdir -p /app/hadoop/tmp $sudo mkdir -p /app/hadoop/data/na
hadoop 偽分散式安裝
0. 關閉防火牆 重啟後失效 service iptables start ;#立即開啟防火牆,但是重啟後失效。 service iptables stop ;#立即關閉防火牆,但是重啟後失效。 重啟後生效 chkconfig iptables on ;#開啟防火牆,重啟後生效 chkconfig
CentOS7環境下偽分散式安裝配置hadoop
(一) 設定靜態IP地址 cd /etc/sysconfig/network-scripts vim ifcfg-ens33 修改IPADDR,NETMASK,GATEWAY為對應的值 修改BOOTPROTO為none 儲存並退出 重啟網絡卡 servi